notizia

iFlytek investirà 400 milioni di dollari di Hong Kong a Hong Kong per concentrarsi sullo sviluppo di modelli linguistici di grandi dimensioni Nvidia Mistral AI

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Le notizie finanziarie di oggi

iFlytek investirà 400 milioni di dollari di Hong Kong a Hong Kong e creerà una sede internazionale

iFlytek ha annunciato un piano di investimenti quinquennale di 400 milioni di dollari di Hong Kong e ha stabilito una sede internazionale a Hong Kong. La società ha affermato che questo piano di investimenti la aiuterà a formare un team di ricerca e sviluppo di 150 persone per concentrarsi sullo sviluppo di modelli linguistici di grandi dimensioni, nonché di applicazioni di intelligenza artificiale in settori quali il linguaggio intelligente, l’istruzione e l’assistenza medica. Duan Dawei, vicepresidente di iFlytek, ha dichiarato: "Il nostro budget iniziale è di 400 milioni di dollari di Hong Kong. Se tutto andrà liscio a Hong Kong, questa cifra aumenterà" (South China Morning Post)

Shell Intelligence ha ricevuto un investimento strategico di 120 milioni di RMB da Tianyang Technology Investment

Shell Intelligence è una società di intelligenza artificiale impegnata nell'innovazione. Dispone di diversi modelli linguistici di base di grandi dimensioni come modelli generali di grandi dimensioni, modelli di codice di grandi dimensioni, modelli di grafica e testo multimodali di grandi dimensioni e modelli di parlato multimodali di grandi dimensioni adatti per una rapida implementazione. da parte delle imprese nazionali.

Tianyang Technology ha firmato l'"Accordo di investimento relativo a Beijing Shell Intelligent Technology Co., Ltd." con Benghu Chuang, Bengshell Consulting, Bengshell Management e Benghu Chuangzhi, investendo 120 milioni di yuan in Bengshell Intelligent e abbonandosi a Bengshell Intelligent New Technology Co., Ltd. Il capitale sociale sarà aumentato di 870.000 RMB e i restanti 119 milioni di RMB saranno inclusi nel fondo di riserva di capitale per ottenere l'8% del capitale di clamshell intelligence una volta completato l'aumento di capitale.

Gantu Technology, uno sviluppatore di prodotti e tecnologie di visione artificiale, ha ricevuto centinaia di milioni di yuan in finanziamenti del round C2

Sentu Technology è uno sviluppatore di tecnologie e prodotti per la visione artificiale. La sua attività principale è applicare la tecnologia di visione artificiale a scenari di ispezione dell'aspetto di precisione. Attualmente, Gantu Technology si concentra sul controllo intelligente della qualità e sulla gestione della resa nel campo della produzione di fascia alta e fornisce soluzioni intelligenti complete per la produzione di fascia alta attraverso il suo quadro di intelligenza artificiale sottostante sviluppato in modo indipendente e le tecnologie di base. Gantu Technology ha completato centinaia di milioni di yuan nel round di finanziamento C2. Questo round di finanziamento è stato sostenuto da fondi industriali del governo locale e ha ricevuto sostegno creditizio da diverse banche. (comunità di investimento)

La piattaforma di pagamenti B2B basata sull'intelligenza artificiale Slope garantisce 65 milioni di dollari in finanziamenti strategici azionari e di debito

Slope, una piattaforma di pagamenti B2B basata sull’intelligenza artificiale, ha ricevuto 65 milioni di dollari in finanziamenti strategici azionari e di debito da JPMorgan Chase. Al round hanno partecipato anche Y Combinator, Notable Capital, Jack Altman e il nuovo fondo Saga di Max Altman.

Planned, un fornitore di soluzioni end-to-end per viaggi e attività, raccoglie 35 milioni di dollari in finanziamenti di serie B

Fondata nel 2017, Planned è una società di servizi "source-to-pay" che accelera viaggi e attività attraverso la tecnologia. L'azienda combina servizi umani con intelligenza artificiale per fornire servizi di acquisto e prenotazione personalizzati per clienti tra cui PwC, Block, AWS e Instacart.

Questo round di finanziamento è stato guidato da Drive Capital, con la partecipazione di Outsiders Fund e di altre due società. Oltre ad annunciare il finanziamento, Planned ha anche aggiunto il CEO e co-fondatore di Hopper, Frederic Lalonde, ex vicepresidente di Expedia, al suo consiglio di amministrazione.

La società di automazione del ciclo delle entrate basata sull'intelligenza artificiale Thoughtful AI raccoglie finanziamenti per 20 milioni di dollari

Thoughtful Automation Inc., una startup di gestione del ciclo delle entrate basata sull'intelligenza artificiale focalizzata sul settore sanitario, ha lanciato tre agenti AI: CAM, EVA e PHIL per gestire rispettivamente l'elaborazione delle richieste, la verifica dell'idoneità dei pazienti e la registrazione dei pagamenti. Il round è stato guidato da Nick Solaro di Drive Capital, con la partecipazione di TriplePoint Capital.

Il fornitore di cloud GPU SF Compute riceve un finanziamento di 12 milioni di dollari guidato da Alt Capital

SF Compute, fondata da Evan Conrad e dal suo compagno di stanza Alex Gajewski, che hanno lavorato presso l'acceleratore di startup OpenAI e AI Grant, ha annunciato di aver ricevuto 12 milioni di dollari in finanziamenti guidati da Alt Capital, fondata dal fratello di Sam Altman, con una valutazione di US $ 70 milioni.

A causa della mancanza di potenza di calcolo sufficiente sul mercato, è difficile per le startup ottenere le grandi quantità di semiconduttori necessari per l'intelligenza artificiale. SF Compute spera di aiutare le startup a ottenere queste risorse e creare una piattaforma di scambio di potenza di calcolo, attualmente SF Compute lo ha fatto ha ricevuto 8.000 ordini H100 per avviare questo progetto. (C'è un nuovo Newin)

AIguideglasses.lumen completa un finanziamento di 5 milioni di euro

.lumen è impegnata nella creazione di tecnologie che cambiano la vita. Fondata da Cornel Amariei, il suo prodotto di punta .lumen Glasses e la tecnologia AI sottostante forniscono indipendenza e sicurezza ai non vedenti. Gli occhiali per non vedenti .lumen utilizzano la tecnologia PAD AI (Pedestrian Autonomous Driving) per imitare le funzioni di un cane guida. .lumen ha raccolto 5 milioni di euro in un round di finanziamento dalla società di gestione azionaria e di investimento SeedBlink. (potenziali Z)

Il servizio clienti AI Xinlian Times ha ricevuto 20 milioni di yuan in finanziamenti angel round

Basato sulla tecnologia dell'intelligenza artificiale, Xinlian Times fornisce alle aziende prodotti e servizi intelligenti, che coprono un servizio clienti intelligente, un marketing intelligente e altri campi. Questo round di finanziamento è stato guidato da United Capital Co., Ltd.

Il fornitore di motori di intelligenza artificiale Artificial.Agency completa un round di finanziamento multimilionario

Artificial.Agency è stata fondata nel 2023 e si concentra sulla fornitura di motori comportamentali basati sull'intelligenza artificiale a creatori e studi di giochi. Il motore integra le decisioni di runtime nelle dinamiche di gioco per offrire un'esperienza dinamica ai giocatori. Gli investitori includono BDC Venture Capital, Kaya, Radical Ventures, TIRTA Ventures e Toyota Ventures.

La società di intelligenza artificiale generativa EdgeRunner AI completa il finanziamento di 5,5 milioni di dollari

EdgeRunner AI è progettato per creare un'intelligenza artificiale generativa sicura, affidabile e trasparente per l'edge. L'azienda sviluppa modelli linguistici piccoli, specifici per attività e ultra efficienti che funzionano senza accesso a Internet, migliorando la privacy, la sicurezza e la conformità dei dati. Questo round di finanziamento è stato guidato da Four Rivers Group, con la partecipazione di Madrona Ventures e angel investor strategici.

La piattaforma di editing AI Edit Cloud ottiene un finanziamento di 2 milioni di sterline

Edit Cloud è un fornitore di piattaforme di editing di intelligenza artificiale basato su cloud con sede a Londra, Regno Unito, che fornisce una piattaforma di produzione cloud progettata per creare contenuti di alta qualità attraverso la tecnologia di intelligenza artificiale. Riunisce inoltre strumenti basati su cloud per consentire ai team di lavorare insieme in modo efficiente. Questo round di finanziamento è stato guidato da Edge, con angel investor tra cui Simon Ward e Justin Cooke.

La piattaforma di sviluppo di modelli di grandi dimensioni AI Arcee.ai completa il finanziamento della serie A

Arcee.ai è stata fondata nel febbraio 2023 e si impegna a sviluppare un sistema di modello linguistico adattivo al dominio, con l'obiettivo di fornire un LLM su misura per domini specifici e integrare perfettamente DALM con le operazioni aziendali per ottenere un processo decisionale basato sui dati e insight di valore efficaci. Il sistema dell'azienda non solo aiuta i clienti a ottenere LLM, ma crea anche un sistema affidabile e autentico. Gli investitori in questo round includono Center Street Partners, Emergence, Flybridge Capital e Journey Ventures. (miliardi di euro)

La società di intelligenza artificiale Nobikan ha completato il round di finanziamento D+

Nobikan si concentra sull'applicazione della tecnologia avanzata di intelligenza artificiale e della tecnologia del gemello digitale a scenari aperti ad alta complessità, fornendo prodotti di intelligenza artificiale altamente universali e orientati al funzionamento e alla manutenzione del trasporto ferroviario, all'energia intelligente, alle città intelligenti, all'ambiente intelligente, ecc. Soluzioni industriali sul campo . L’investitore in questo round è Peikun Investment.

Ingemar Robot Technology ha ricevuto investimenti strategici dal National Supercomputing Wuxi Center

EnigmaRobotics è una start-up fondata nel 2023, focalizzata sullo sviluppo e la promozione di robot compagni intelligenti, modelli completi multimodali e le loro applicazioni. Il National Supercomputing Wuxi Center ha annunciato un investimento strategico nella Ingmar Robotics Technology.

La piattaforma di finanziamento del credito basata sull'intelligenza artificiale New Frontier Funding riceve investimenti

New Frontier Funding si impegna a utilizzare l'intelligenza artificiale generativa per aiutare le piccole e medie imprese a trovare finanziamenti e finanziamenti. L'azienda utilizza i propri dati proprietari e ottimizza il modello linguistico di OpenAI per la ricerca semantica e i flussi di lavoro degli agenti per ridurre il lavoro di back-office e in modo accurato. I mutuatari sono abbinati ai finanziatori. Attualmente si sta chiudendo un round di finanziamento del capitale di crescita per Homsher Family Office. L'importo della transazione non è stato reso noto.

Edge Innovation riceve un investimento da Angel Round

Lo scenario di applicazione principale di Edge Innovation consiste nell'utilizzare sensori multimodali + tecnologia AI per quantificare i dati dei pazienti mentali durante il processo di diagnosi e trattamento, migliorare l'efficienza del trattamento psichiatrico e concentrarsi sui cambiamenti dei muscoli facciali, sulla frequenza cardiaca, sulla respirazione e altri indicatori. Recentemente, ha ricevuto investimenti angelici da Qiji Chuangtan. Il CEO Zhao Zihe si è laureato all'Università di Scienza e Tecnologia di Hong Kong ed è un imprenditore seriale. Ha una vasta esperienza nello sviluppo di algoritmi robotici e nella ricerca e sviluppo di prodotti e ha lavorato in DJI.

Galaxy General, uno sviluppatore di robot multimodali su larga scala, ha ricevuto investimenti da una società di investimento di Hong Kong

Galaxy General è uno sviluppatore di robot multimodali su larga scala che si concentra sulla produzione di robot con AGI incorporata e fornisce robot per uso generale in tutto il mondo. Hong Kong Investment Management Co., Ltd., la "versione Hong Kong di Temasek", ha annunciato il suo investimento in "Galaxy General". Nel giugno precedente, Galaxy General Motors aveva ricevuto 700 milioni di yuan in finanziamenti angelici da importanti investitori strategici e industriali come Meituan-Dianping Venture Capital, BAIC Industrial Investment, SenseTime Guoxiang Fund, iFlytek Fund, ecc. Light Source Capital fungeva da finanziatore esclusivo consulente e ha partecipato a Investire presto.

(Benvenuto nell'aggiungere AIyanxishe2 su WeChat per saperne di più sull'AIGC e sulle condizioni di finanziamento e parlare dei prodotti Shixin AI con amici che la pensano allo stesso modo)

Le voci sulla grande fabbrica di oggi

Nvidia Mistral AI rilascia congiuntamente il piccolo modello Mistral Nemo con parametri 12B, schiacciando Llama 3 con runtime singolo 4090

NVIDIA ha collaborato con Mistral AI per rilasciare un nuovo modello piccolo di AI Mistral NeMo, che ha 12 miliardi di parametri e supporta il contesto 128K, sconfiggendo modelli simili Gemma 2 9B e Llama 3 8B in numerosi test di benchmark. Mistral NeMo è progettato per servire gli utenti aziendali, semplificando la personalizzazione e la distribuzione di applicazioni aziendali che supportano chatbot, attività multilingue, codifica e riepilogo. I modelli Mistral NeMo offrono prestazioni elevate, compatibilità, facilità d'uso e possono essere sostitutivi di qualsiasi sistema che utilizza Mistral 7B. Il modello utilizza il formato dati FP8 per l'inferenza, che riduce le dimensioni della memoria e accelera la distribuzione mantenendo la precisione. Mistral NeMo supporta anche applicazioni multilingue e dispone di un efficiente segmentatore di parole Tekken, che migliora l'efficienza di elaborazione di più lingue. Inoltre, Mistral NeMo è pronto per essere eseguito ovunque, incluso il cloud, il data center o la workstation RTX, e gli sviluppatori possono provare Mistral NeMo utilizzando mistral-inference.

I modelli grandi di Xiaomi Xiaoai stanno per essere completamente aggiornati: tutto gratis, e saranno completamente supportati su cellulari, tablet e TV entro la fine di questo mese

I modelli grandi di Xiaomi Xiaoai riceveranno un aggiornamento completo e tutti saranno gratuiti. Il modello aggiornato sarà più intelligente, supporterà domande e risposte intelligenti, creazione e altre funzioni e migliorerà l'esperienza di chat. Il supporto per il nuovo modello sarà disponibile su dispositivi come telefoni, tablet e TV entro la fine di luglio. La versione per telefoni cellulari e tablet è V6.126.5 e la versione per TV è V4.30.1. La capacità di memoria deve essere superiore a 1G. Gli altoparlanti senza schermo verranno aggiornati alla fine di agosto e gli altoparlanti sullo schermo verranno aggiornati alla fine di ottobre. (Tecnologia rapida)

Apple rilascia il modello open source con prestazioni super Mistral-7B DCLM-7B

Apple ha rilasciato il modello open source DCLM-7B su Hugging Face. Le prestazioni di questo modello hanno superato Mistral-7B e si stanno avvicinando a Llama 3 e Gemma. Le risorse open source per il modello DCLM-7B includono pesi del modello, codice di addestramento e set di dati di pre-addestramento. Il gruppo di ricerca ha proposto un nuovo DCLM di riferimento per valutare le prestazioni di modelli linguistici di grandi dimensioni, soprattutto nel dominio multimodale. Il benchmark DCLM utilizza un framework sperimentale standardizzato, che include architettura del modello fisso, codice di training, iperparametri e valutazione, per identificare le strategie di gestione dei dati più adatte per il training di modelli ad alte prestazioni. Il modello DCLM-7B utilizza una soluzione di pre-addestramento basata sul framework OpenLM e la sua precisione a 5 colpi sul benchmark MMLU raggiunge il 64%, che è paragonabile a Mistral-7B-v0.3 e Llama 3 8B, ma il richiesto l'importo calcolato è solo Llama 3 1/6 di 8B.

Il produttore Google e Ray-Ban sviluppano occhiali intelligenti dotati del modello Gemini AI

Google ha contattato EssilorLuxottica (la società dietro il marchio Ray-Bans) e prevede di collaborare alla produzione degli occhiali intelligenti Gemini. EssilorLuxottica ha già collaborato con Meta Company per lanciare due generazioni di occhiali intelligenti Ray-Ban Meta e l'ultima notizia è che Meta sta pianificando di spendere miliardi di dollari per acquisire circa il 5% delle azioni di EssilorLuxottica. (Il limite)

Novità sui prodotti di oggi

Hot List di ricerca prodotti, Flow Studio

Flow Studio è uno strumento sviluppato dal team Flow GPT in grado di convertire il testo in brevi video di alta qualità. La piattaforma è stata sviluppata in collaborazione da Lifan Wang, Sam Xu, Qianhua Ge, Jay Dang e Luke Pioneero e lanciata su Product Hunt il 18 luglio 2024. Il punto forte di Flow Studio è la sua capacità di generare automaticamente un video completo comprendente storia, doppiaggio, musica di sottofondo ed effetti sonori attraverso un unico messaggio di testo, semplificando notevolmente il processo di produzione video. Flow GPT è molto apprezzato dagli utenti, con un punteggio medio di 4,9/5 stelle.

Il fondatore Jay Dang ha studiato informatica presso l'Università della California, Berkeley. È il fondatore di FlowGPT, Markit AI e LUUM. Ha anche lavorato come scienziato dei dati e ricercatore indipendente presso C. Light Technologies, Inc. e Glaucomark.

?https://flowgpt.com/flow-studio?ref=producthunt

GitHub Trending Hot List, Langflow, un framework per la creazione di multi-agente e RAG

Langflow è un framework visivo progettato per aiutare gli sviluppatori a creare applicazioni multi-agente e RAG. Il progetto è sviluppato sulla base di Python, è open source, può essere completamente personalizzato e supporta diversi modelli linguistici e archiviazione di vettori. Gli utenti possono installare Langflow tramite pip e devono assicurarsi che la versione Python installata nel sistema sia almeno 3.10. Il progetto fornisce documentazione dettagliata e guide alla distribuzione.

?https://github.com/langflow-ai/langflow

Attenzione speciale

Yi Tay, ex ricercatore senior presso Google Brain e cofondatore di Reka AI, spiega: Perché non abbiamo visto più estensioni del modello di codificatore dopo BERT?

Yi Tay è il cofondatore e capo scienziato di Reka AI, che ha raccolto finanziamenti per 100 milioni di dollari. Ha lavorato su modelli linguistici su larga scala e ricerche sull'intelligenza artificiale presso Google Brain. Dal 2020 all'inizio del 2023, è stato profondamente coinvolto nella maggior parte dei modelli linguistici su larga scala e nel lavoro multimodale di Google. Ha vinto i premi per i migliori articoli alle conferenze ICLR e WSDM ed è stato docente ospite nel corso CS25 della Stanford University.

Yi Tay pubblica il primo di una serie di blog sulla piattaforma X, con l'obiettivo di esplorare l'architettura dei modelli nell'era dei grandi modelli linguistici. Vengono discusse varie architetture tra cui il codificatore Transformer, il codificatore-decodificatore, PrefixLM e gli obiettivi di denoising. Yi Tay ha citato una domanda comune sul motivo per cui non abbiamo visto più estensioni del modello di codificatore dopo BERT e sul destino dei modelli con decodificatore o solo codificatore. Ha anche messo in dubbio l’efficacia del denoising degli obiettivi e ha condiviso i suoi pensieri in un post sul blog.

Il blog ha menzionato per la prima volta la confusione nel campo dell'elaborazione del linguaggio naturale riguardo alla scomparsa dei modelli di codifica negli ultimi anni, nonché allo sviluppo di modelli come BERT e T5. Vengono enfatizzate le differenze e le connessioni tra modelli encoder-decoder, modelli solo encoder e modelli solo decoder e vengono evidenziate le caratteristiche dell'architettura PrefixLM. Viene spiegato ulteriormente il concetto di rimozione del rumore dei target, compresi i metodi di rimozione del rumore "sul posto" in stile BERT e sequenza per sequenza in stile T5, e vengono discussi i vantaggi e gli svantaggi della rimozione del rumore dei target.

Yi Tay ha anche analizzato il costo computazionale dei modelli di codificatore-decodificatore e il motivo per cui i modelli in stile BERT vengono gradualmente eliminati. E ha sottolineato che gli obiettivi di denoising sono spesso complementari ai modelli linguistici causali e svolgono un ruolo nella pre-formazione di modelli linguistici di grandi dimensioni. Inoltre, viene discusso anche il ruolo dei meccanismi di attenzione bidirezionale in modelli di diverse dimensioni. Infine, Yi Tay ha riassunto i vantaggi e gli svantaggi dell’architettura codificatore-decodificatore e ha sottolineato l’importanza di comprendere il bias induttivo e le strategie di pre-addestramento, nonché le ragioni per cui il modello BERT è stato sostituito dal modello T5 più flessibile.

?https://www.yitay.net/blog/model-architecture-blogpost-encoders-prefixlm-denoising

Restate sintonizzati per gli ultimi aggiornamenti di domani!

leifeng.com