notizia

metà acqua di mare, metà fiamma, dov'è la strada per i chip ia domestici?

2024-09-21

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

panoramica

i chip ai sono anche chiamati acceleratori ai o schede di calcolo. in base all'architettura tecnica, possono essere suddivisi in unità di elaborazione grafica per uso generale (gpgpu), unità di elaborazione centrale (cpu), chip integrati specifici per l'applicazione (asic) e campo. -array di porte programmabili (fpga). nello sviluppo dell'intelligenza artificiale, i ricercatori hanno scoperto che il calcolo parallelo può eseguire un addestramento efficiente dei modelli ed elaborare dati complessi su larga scala. gpgpu ha prestazioni di elaborazione parallela più elevate rispetto ad altri chip ed è adatto per applicazioni ad alta intensità di elaborazione, quindi è diventato la corrente principale dei chip di elaborazione.

secondo la classificazione funzionale, i chip ai possono essere suddivisi in due tipologie: schede di allenamento e schede di inferenza. le schede di addestramento, chiamate anche schede grandi, solitamente hanno una potenza di calcolo e una larghezza di banda di memoria più elevate per supportare una grande quantità di calcoli ed elaborazione di dati durante il processo di addestramento. le schede di inferenza, chiamate anche schede piccole, hanno parametri inferiori e devono soddisfare solo i requisiti di inferenza . in generale, le carte di allenamento possono essere usate come carte di ragionamento, ma le carte di ragionamento non possono essere usate come carte di allenamento. in parole povere, l'addestramento di modelli di grandi dimensioni richiede un gran numero di schede di addestramento per formare un cluster di schede grafiche, mentre per le applicazioni sono necessarie schede di inferenza per eseguire il modello ai per i calcoli.

questa ondata di intelligenza artificiale è stata lanciata da chatgpt e utilizza grandi modelli linguistici e applicazioni di intelligenza artificiale generativa come punto di ingresso. sin dal suo rilascio da parte di google nel 2017, transformer è stato ampiamente utilizzato nell'elaborazione del linguaggio naturale, nella visione artificiale, nella guida autonoma e in altri campi, oltre a portare popolari prodotti c-side come chatgpt. le aziende tecnologiche cinesi e straniere continuano ad aumentare gli investimenti in campi correlati, tra cui google, meta, microsoft, bytedance, baidu e altri giganti e start-up tecnologici nazionali ed esteri, che sperano tutti di ottenere una fetta della torta. anche le aziende tecnologiche investono costantemente in talento, tecnologia e disposizione delle risorse. secondo i dati previsti da bloomberg intelligence, entro il 2032, la percentuale di ia generativa nelle spese complessive per hardware, software, servizi, pubblicità, giochi, ecc. della tecnologia dell’informazione potrebbe aumentare dal livello attuale inferiore all’1% al 12%.

grafico 1: entrate globali dell’ia generativa e previsioni dal 2020 al 2032e (unità: 1 miliardo di dollari)

fonte dati: bloomberg intelligence, ordinamento dei dati lai mi

nel 2018, openai ha lanciato il modello linguistico di pre-formazione generativo gpt-1, che ha 117 milioni di parametri. il numero di parametri gpt-4 rilasciati nel 2023 sarà di circa 1,8 trilioni. l'aumento del numero dei parametri di oltre 10.000 volte in 5 anni ha comportato un aumento esponenziale della potenza di calcolo richiesta dai modelli di grandi dimensioni. openai stima che dal 2012, i requisiti di potenza di calcolo per la formazione dei modelli di intelligenza artificiale a livello globale siano raddoppiati ogni 3-4 mesi. soprattutto dopo il 2023, lo sviluppo dell’intelligenza artificiale è in pieno svolgimento. i produttori nazionali ed esteri hanno aumentato i loro investimenti nell’intelligenza artificiale generativa e la “battaglia di centinaia di modelli” è ripresa. ciò ha causato anche una carenza a lungo termine della domanda di potenza di calcolo .

grafico 2: scala e previsioni della potenza informatica intelligente della cina dal 2019 al 2026e (unità: 100 milioni di yuan)

fonte dati: idc, ordinamento dei dati lai mi

nel contesto della ricerca sugli algoritmi e dell’open source di alcuni modelli, i grandi modelli domestici hanno fatto rapidi progressi e molti grandi modelli nazionali di intelligenza artificiale affermano che le loro capacità individuali hanno raggiunto il livello di gpt-4. per ora, il divario più grande tra le capacità di intelligenza artificiale nazionali e quelle estere risiede principalmente nei chip ai. per ragioni ben note, non solo le aziende tecnologiche nazionali non sono in grado di acquistare chip ia avanzati, ma anche con una soluzione completa è diventato molto difficile produrre in proprio chip ia. in questo contesto, i chip ia nazionali hanno un enorme potenziale di crescita.

i chip ia sono un gioco in cui il vincitore prende tutto. il monopolio di nvidia sui chip ai è sufficiente a scoraggiare la maggior parte dei concorrenti. il laimi research institute ritiene che la difficoltà dei chip ai si rifletta principalmente in tre aspetti, vale a dire prestazioni della scheda singola/prestazioni del cluster, ecologia/flessibilità e difficoltà di produzione/efficacia in termini di costi. combinando questi tre aspetti, nvidia ha la forza più completa, quindi ha raggiunto una quota di mercato superiore al 90% nel mercato dei chip ai.

come è il progresso delle imprese e delle industrie nazionali? abbiamo contato i parametri specifici delle principali società di chip ai nazionali ed estere e possiamo vedere che c'è ancora un divario nelle prestazioni delle singole carte tra chip ai nazionali e chip ai esteri, ma il divario maggiore proviene da wanka internet ed ecologico; costruzione sul lato formativo. nel complesso, i chip ia nazionali hanno ancora molta strada da fare nel lungo periodo.

grafico 3:produttori, prodotti e caratteristiche tecniche di chip ai nazionali ed esteri

fonte dati: informazioni pubbliche, ordinamento dei dati lai mi

i chip ia domestici si concentrano principalmente sul lato dell'inferenza. questo aspetto è quello con cui competerenvidiad’altra parte, con lo sviluppo e la diffusione della tecnologia ai, la domanda del settore di chip ai ad alte prestazioni e a basso consumo è in aumento. tuttavia, ci sono anche produttori di chip lato formazione che stanno delineando piani. al global ai chip summit del 2024, biren technology ha annunciato per la prima volta la sua soluzione di formazione collaborativa gpu eterogenea indipendente e originale hgct , supporta l'addestramento misto di tre o più gpu eterogenee sullo stesso modello di piattaforma di grandi dimensioni. moore thread ha annunciato il suo cluster intelligente wanka kuae (kuae) basato su mtt s4000 per formazione e test. anche produttori come huawei, cambrian e haiguang information hanno fatto mosse simili.

è estremamente difficile avviare un’attività di chip ai. il laimi research institute ritiene che la prima difficoltà nell’avviare un’attività di chip ai sia risolvere i problemi di progettazione e produzione dei chip. a causa delle restrizioni imposte all'estero, i relativi strumenti di progettazione sono stati controllati. tuttavia, il problema della produzione è un problema più realistico. l'ultimo chip ai di nvidia utilizza il processo 4nm. attualmente, solo tsmc ha le capacità di produzione, mentre le capacità di produzione dei chip della cina continentale sono leggermente insufficienti.

il secondo riguarda le questioni di mercato. al momento nvidia è ancora la soluzione di chip ia più conveniente. d'altra parte, le aziende nazionali di ia acquistano chip ia nazionali per ragioni soggettive o oggettive soddisfare le proprie esigenze (ad esempio, produttori come bytedance progettano i propri chip ai in base alla domanda). da un lato, i modelli di grandi dimensioni accelerano lo sviluppo dei chip ai e, dall’altro, ampliano sempre di più il divario tra i produttori di chip. i produttori nazionali di chip ia devono considerare quali esigenze specifiche i loro prodotti possono soddisfare le esigenze dei clienti prima che questi siano disposti a pagare premi elevati.

il terzo è la redditività. per ragioni ben note, i cicli di ricerca e sviluppo dei chip ia sono lunghi, intensivi e costosi e questi investimenti sono spesso difficili da restituire a breve termine. pertanto, è estremamente importante ottenere la capacità ematopoietica. date le attuali dinamiche del mercato primario, è estremamente improbabile fare affidamento esclusivamente sul mercato dei capitali di rischio per le trasfusioni di sangue. vale la pena testare anche il flusso di cassa positivo delle aziende produttrici di chip ai.

notizie su investimenti e finanziamenti

il mercato dei chip ai ha mostrato un forte slancio di crescita negli ultimi anni. si prevede che la dimensione globale del mercato dei chip ai raggiungerà i 71,252 miliardi di dollari nel 2024, con un aumento su base annua del 33%, e si prevede che crescerà ulteriormente fino a raggiungere i 91,955 miliardi di dollari nel 2025. nel mercato cinese, la dimensione del mercato dei chip ai raggiungerà i 120,6 miliardi di yuan nel 2023, con un aumento su base annua del 41,9%, e si prevede che crescerà fino a 141,2 miliardi di yuan nel 2024. secondo i dati laimi, anche quest’anno i chip ai sono uno dei percorsi più attivi. i round di finanziamento sono ancora in fase iniziale, ma alcuni progetti stellari sono stati riconosciuti dal mercato e il capitale è in costante aumento. i lettori interessati possono accedere alla piattaforma rime pevc per ottenere casi di finanziamento completi, progetti investiti e analisi approfondite dei dati del tracciato del chip ai.

fonte dati:vieni a trovare i dati

veduta

mentre la grande rivoluzione dei modelli investe il mondo, la domanda di potenza di calcolo raggiunge nuovi livelli, guidando l’iterazione e l’evoluzione dei chip ai cloud, edge e side. sotto le tre nuvole di crescita esplosiva dei dati, di avvicinamento ai limiti fisici della tecnologia e di una situazione internazionale complessa e instabile, molte aziende produttrici di chip di intelligenza artificiale stanno andando avanti sotto pressione in modo discreto e pragmatico, preparandosi attivamente per le opportunità dei tempi offerti. dall’onda generativa dell’ia.

come ha affermato elon musk: solo le materie prime sono l’unica limitazione e ogni aspetto della produzione può essere completamente reinventato. l’enorme potenziale dell’intelligenza artificiale creerà sicuramente un mercato di trilioni. il “blocco” è solo temporaneo con la scoperta di processi avanzati e investimenti di capitale, la distanza tra noi e l’intelligenza artificiale d’oltremare si sta riducendo anziché aumentare. lo spazio per la sostituzione interna è enorme e anche le società collegate introdurranno rapide opportunità di crescita.

pensare alla fine del gioco richiede di individuare il vincitore. il mondo futuro richiederà una potenza di calcolo infinita, ma, considerato il panorama competitivo del mercato statunitense, potrebbero esserci solo pochi vincitori. a causa della natura “chi vince prende tutto” dei chip ia, riteniamo che le aziende nazionali di chip ia debbano avere forza tecnica, capacità di canale e capacità finanziarie per vincere. queste capacità pongono enormi sfide alle startup, ma creano anche barriere nel settore.

fonte: rimedata dati lai mi autore: lai mi research institute