notizia

Il gigante della Silicon Valley produce un "biglietto" di base pari a 2 miliardi di dollari

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

"Chip Matters" è il piano di ricerca di Tencent Technology sul settore dei semiconduttori. Questo numero si concentra sulla logica e sulle sfide delle aziende tecnologiche che sviluppano chip IA auto-sviluppati.

Autore Xinchao IC A Niu

Redattore Su Yang

"Le nostre riserve di chip NVIDIA non riescono più a tenere il passo", ha detto francamente un CEO di una grande azienda di modelli di intelligenza artificiale.

A causa dell'ulteriore restrizione dei controlli sulle esportazioni è stato difficile acquistare i chip cinesi in edizione speciale come A800 e H800, invece sono stati sostituiti dalla versione conforme dell'H20. Le prestazioni di quest'ultimo si sono notevolmente ridotte il mondo la chiama anche una versione castrata. Anche così, l’H20 potrebbe ancora dover affrontare controlli sulle esportazioni nell’aggiornamento delle disposizioni sul controllo delle esportazioni del Dipartimento del Commercio degli Stati Uniti nell’ottobre di quest’anno.

Il Financial Times ha citato due fonti anonime vicine a Nvidia che affermano che diverse società cinesi hanno effettuato ordini per un totale di 5 miliardi di dollari in chip da Nvidia. Allo stesso tempo, alcuni chip nazionali sono entrati nel campo visivo dei principali produttori di tecnologia, ma a causa del processo, dell’interconnessione e di altri motivi, ci sono ancora lacune nelle sfide in termini di prestazioni e fornitura.

In questo contesto, molte grandi aziende hanno iniziato la ricerca personale e hanno successivamente sviluppato gli attuali chip TSMC, coprendo più nodi di processo come 5 nm e 7 nm, per garantire la sicurezza della fornitura dei propri chip AI.

I controlli sulle esportazioni sono come un'arma a doppio taglio, che blocca il collo della potenza di calcolo e limita la crescita di NVIDIA. Soprattutto nel contesto dell'autoricerca dei clienti, le entrate di NVIDIA nella Cina continentale hanno iniziato a mostrare variabilità. Nell’anno fiscale 2022, i clienti cinesi hanno contribuito per il 25% alle entrate di mercato di Nvidia, ma nell’anno fiscale 2024 questa percentuale è scesa a una sola cifra.

Per Nvidia, la torta nella Cina continentale si sta restringendo e anche la Silicon Valley sta cambiando. I principali clienti come Google, Apple, Meta, Amazon e Tesla stanno tutti cercando di andare in entrambe le direzioni, utilizzando i chip Nvidia mentre fanno le proprie ricerche.

Qual è la logica dietro i chip sviluppati internamente dai principali produttori cinesi e americani. Possono le aziende tecnologiche che si riversano nel Mar Rosso sbarcare con successo con chip sviluppati autonomamente?

01 La valuta forte ti fa sentire sicuro solo quando la tieni in mano

Nell'attuale mania per i modelli di grandi dimensioni e l'intelligenza artificiale generativa, i chip di potenza di calcolo sono la valuta forte nelle mani delle aziende tecnologiche. CoreChao IC ha tracciato questa follia e la tensione di "accaparrarsi la potenza di calcolo" nell'articolo "Il prezzo altissimo di H100 scorre". al mercato nero".

Tenere le carte in mano è il motivo fondamentale per cui i principali produttori sviluppano i propri chip.

Secondo Chen Wei, presidente di Qianxin Technology, i principali produttori hanno tre carte vincenti: fornitura garantita, riduzione dei costi e offerte. In generale, si tratta di una sorta di autonomia dei chip.

Molti dei principali produttori cinesi, in particolare quelli di Internet e dell'intelligenza artificiale, si trovano ad affrontare il rischio di tagli alla fornitura di potenza di calcolo in qualsiasi momento, nel contesto di controlli avanzati sulle esportazioni di chip. L'autoricerca è la garanzia della sicurezza della potenza di calcolo. Tuttavia, i chip sviluppati da ciascuna azienda sono principalmente per uso interno e le specifiche sono personalizzate per i propri prodotti e non sono prodotti di uso generale.

Per i giganti che “bruciano soldi” per accumulare potenza di calcolo, l’autoricerca è un modo per ridurre i costi. "Se il volume è abbastanza grande e la domanda è abbastanza grande, allora prendi in considerazione la ricerca personale, altrimenti potrebbe non essere in grado di ridurre realmente i costi", ha detto Wu Zihao, un ex esperto di costruzioni di fabbriche di TSMC.

Nel 2021, Musk ha lanciato il supercomputer Dojo costruito con il chip AI D1 auto-sviluppato per addestrare i TeslaAutopilota sistema. Secondo l'ultimo rapporto di ricerca di Morgan Stanley, questo sistema consente di risparmiare un totale di 6,5 miliardi di dollari rispetto all'A100 di Nvidia.

Con l'aumento della domanda di intelligenza artificiale, la dipendenza di Cloud Factory dalla GPU supera di gran lunga quella della CPU. Anche la domanda di chip NVIDIA è pazzesca.

Una persona vicina ad Amazon ha detto a Xinchao IC che le schede NVIDIA non sono economiche Se i principali produttori DSA avranno chip speciali sviluppati autonomamente, non solo saranno in grado di ridurre completamente il costo medio dei chip e dei brevetti, ma saranno anche in grado. per competere meglio con NVIDIA Buon potere contrattuale.

Le informazioni pubbliche mostrano che Amazon non solo progetta i propri server informatici, server di archiviazione e router, ma sviluppa anche il proprio chip server Graviton.

AWS lancia il processore universale Graviton4

Secondo The Information, Amazon continua ad abbassare i prezzi sostituendo Nvidia con Graviton. I clienti che noleggiano direttamente i server Graviton risparmiano dal 10% al 40% sui costi di elaborazione. Dal punto di vista di Nvidia, se vuoi mantenere Amazon, il più grande cliente mondiale della fabbrica cloud, devi sederti al tavolo da poker e negoziare un prezzo migliore.

"A volte questo tipo di concessione sugli utili potrebbe non riflettersi completamente nello sconto, ma potrebbe riflettersi nell'allocazione."

Secondo i suddetti addetti ai lavori, in quanto produttore leader a livello mondiale, se Nvidia concede direttamente uno sconto molto intuitivo sul prezzo unitario, ciò avrà un grande impatto negativo sul sistema di prezzo del prodotto e non favorirà tuttavia la protezione del prezzo del prodotto , possono aggiornare le apparecchiature di interconnessione, aggiornare l'archiviazione SSD, aggiungere più configurazioni rack, ecc. per offrire sconti ai grandi clienti sotto mentite spoglie.

Esiste anche un metodo preferenziale più comune: l'inclinazione della capacità e la concessione dei diritti per la prima volta.

Con il vantaggio della prima mossa, Amazon può aumentare il prezzo della macchina completa a breve termine e "risparmiare" (sconto) denaro sul premio della macchina completa e sulla circolazione delle catene di strumenti software di supporto.

Oltre a garantire l'offerta, ridurre i costi e le offerte, alcuni importanti produttori vogliono garantire la propria competitività unica sviluppando i propri chip.

Chen Jing, vicepresidente della Fengyun Society, ha affermato che i chip venduti da NVIDIA sono adatti per l'informatica generale e hanno funzioni complete ma sono anche relativamente costosi. Tuttavia, in questo caso alcuni clienti necessitano solo di funzioni specifiche per aumentare alcuni dei propri vantaggi , prenderanno in considerazione lo studio autonomo.

"Ho solo bisogno di fare inferenza di modelli di grandi dimensioni e non ho bisogno di funzioni di addestramento. In questo caso, posso progettare un chip dedicato con funzioni semplici, ma velocità più elevata e prezzo più economico", ha affermato Chen Jing. "Le grandi aziende come Google e Microsoft hanno le proprie specifiche di sistema software e hardware. Come controllare il rumore e quale livello di consumo energetico dovrebbe essere raggiunto. NVIDIA potrebbe non essere in grado di soddisfare gli standard. Sarà più conveniente progettare da soli. "

Tra i giganti della Silicon Valley, Google è molto preoccupato per la differenziazione della propria architettura, dei costi e della tecnologia dei chip. Dal 2016 sviluppa la propria unità di elaborazione tensore AI (TPU) per ottenere una migliore efficienza in termini di costi nella formazione su larga e media scala. e inferenza. e prestazioni per garantirlicloud computingI prodotti hanno una migliore unicità e riconoscibilità.

Google lancia il TPU "Trillium" di sesta generazione

Secondo i dati relativi al TPU di quarta generazione divulgati da Google, rispetto a sistemi della stessa dimensione, TPU v4 è 1,7 volte più efficiente di NVIDIA A100 e 1,9 volte più risparmio energetico.

Oltre a quanto sopra, dal punto di vista ecologico c’è una ragione più profonda: rompere il monopolio della CUDA. Essendo un linguaggio di programmazione sviluppato da NVIDIA, CUDA è il motivo principale per cui i prezzi delle GPU sono stati "alzati alle stelle" e i clienti devono accettarlo.

Se la fabbrica del cloud non effettua un'autoricerca, anche se riesce a ottenere un buon prezzo d'ordine, oltre il 95% dei processori nel data center utilizzerà comunque le GPU NVIDIA e l'intera domanda di AI cloud continuerà a fare affidamento su CUDA ecosistema. In ultima analisi, il destino di Nvidia è nelle mani di Nvidia.

Man mano che Cloud Factory doterà i data center di chip sviluppati autonomamente e svilupperà molti middleware sottostanti e funzioni di traduzione binaria per aiutare i clienti a migrare verso il proprio ecosistema, avrà un grado più elevato di compatibilità equivalente con i programmi CUDA e la sua dipendenza esclusiva diminuirà gradualmente.

"Questo è ciò che fanno tutte le fabbriche del cloud. Anche se il processore rappresenta meno del 4% dell'intero data center, devono comunque insistere per farlo", ha detto una persona a conoscenza della questione.

02 Se ci sono persone e soldi, finiamola

"Ci sono persone, soldi, cose e allo stesso tempo hanno ancora un potenziale futuro, quindi può essere posto fine."

 

Yu Hao, vicepresidente di Legend Holdings, ritiene che la logica dei grandi produttori che effettuano ricerche personali sui chip sia relativamente fluida. I suoi clienti sono presenti, il che rappresenta un chiaro vantaggio.

"Le 'persone' devono essere persone di 'talento' con esperienza pratica nell'intero ciclo di vita dei chip, e il 'denaro' deve essere 'denaro vivo' che continua a contribuire alle entrate in base al business della potenza di calcolo. In questo modo, i principali i produttori possono fare affidamento sul circuito chiuso del business dell’intelligenza artificiale per fare il punto sulle prospettive future Con la crescita prevista del mercato, la domanda di potenza di calcolo è stata quantificata e il coordinamento strategico di persone e denaro è stato completato, chip autosviluppati. sono venuti naturalmente", ha detto Yu Hao a Xinchao IC.

Tuttavia, la quota di iscrizione per sedersi al tavolo da poker sviluppato internamente parte da almeno 2 miliardi di dollari. All'inizio di quest'anno,IA aperta Il CEO Sam Altman ha addirittura parlato di un piano folle per raccogliere 7 trilioni di dollari per costruire chip, anche se la persona coinvolta ha successivamente smentito la voce.

Secondo una persona che ha familiarità con la questione, "Ogni azienda che itera sui suoi prodotti di prima generazione costerà almeno 2 miliardi di dollari per aumentare la produzione di massa se calcolata sulla base del nodo intermedio da 7 nanometri".

Inoltre, i chip sviluppati internamente sono per lo più destinati all’autouso e non devono considerare la difficoltà di costruire un ecosistema. Ran Ciyuan ha citato un partner di Sky Eagle Capital che ha affermato: "La progettazione architettonica dei chip per scopi speciali generalmente non deve essere particolarmente complicata, anche le caratteristiche dell'applicazione sono molto chiare e lo sviluppo è relativamente veloce. Pertanto, per molti Internet Per le aziende, il loro sviluppo di chip speciali rientra in uno scenario chiaro, non è necessario spendere troppo tempo e denaro per sviluppare l’ecosistema software e anche il processo IP è maturo”.

La teoria funziona, ma come possiamo far sì che lo studio autonomo funzioni con successo?

In base alle conoscenze del settore, l'autoricerca dei chip può essere suddivisa in parti front-end e back-end. Il front-end è il progetto logico, ovvero le funzioni più elementari del chip. Il back-end è il progetto fisico, ovvero l'entità che implementa tutte le funzioni nel circuito e le registra.

Diagramma schematico del processo di chip autosviluppato

In generale, gli unici progetti che piccoli team possono completare in modo indipendente sono il front-end e il back-end del chip logico e la stessa catena di strumenti software, ma anche così, molti progetti hanno solo il 5% di circuiti dedicati sviluppati autonomamente.

La suddetta persona che ha familiarità con la questione ha detto: “Tutti nel mercato fanno 1/5 da soli e chiedono agli altri di fare i restanti 4/5. Questo è un ecosistema abbastanza maturo per quanto riguarda come ottenere questi IP del circuito, alcuni hanno superato canali non validi e alcuni utilizzano canali non conformi, come le licenze di produttori di progettazione IP come ARM.

Molti team hanno effettivamente la capacità di progettare in modo indipendente alcuni circuiti, ma poiché devono superare l'IP che ha una protezione della proprietà intellettuale molto severa, anche se realizzati, è probabile che violi l'architettura del computer e non possa essere utilizzato, o anche violare la proprietà intellettuale di altri, questo è anche il primo ostacolo che i produttori nazionali incontrano quando sviluppano i propri chip.

Ci sono anche alcune cose che il team di auto-ricerca non può progettare, come alcune strutture molto difficili di NOC (Network on Chip).

La progettazione è solo una parte dei chip sviluppati internamente. Comprende anche l'eliminazione del nastro, la produzione di massa, ecc. È possibile che si verifichino vari problemi nel processo, tra cui il guasto dell'estrazione del nastro, la capacità di produzione di massa, ecc., ma questi non sono propri. -sviluppato. Alla fine, deve anche risolvere una serie di questioni di supporto, compreso come implementare l'integrazione della catena industriale.

Dal punto di vista del mondo esterno, un chip logico dedicato è di circa 500 mm² e una GPU generica può essere di 800 mm² e contenere decine di miliardi o addirittura centinaia di miliardi di transistor. Alcune delle sue funzioni vengono utilizzate per calcoli vettoriali e possono esserlo considerato un processore vettoriale. Tutti, ma per essere implementato negli scenari applicativi, richiede anche la progettazione e l'implementazione di storage, controllo del consumo energetico, alimentazione e condizioni operative generali della macchina. Richiede inoltre l'interconnessione e il networking per formare un cluster più grande.

Inoltre, l'obiettivo finale dei prodotti è quello di creare differenziazione, che deve essere fatta sull'interfaccia periferica e sull'intera macchina, e appariranno diversi SKU. L'industria di solito confronta lo stoccaggio, il consumo di energia e l'efficienza della metratura dal punto di vista tutta la macchina.

In altre parole, oltre all’integrazione della catena industriale e alle questioni relative alla proprietà intellettuale, i chip sviluppati internamente devono considerare anche gli SKU del prodotto. Non è sufficiente progettare un chip logico.

Una persona anziana che desidera rimanere anonima ha detto a Xinchao IC: “Molte aziende nazionali non hanno capacità di progettazione del prodotto, dopo aver realizzato i chip, devono recarsi in vari luoghi per i test. I loro ingegneri e BD aziendali sono di stanza a Inspur, Sugon, ecc . ogni giorno. I data center dei principali produttori sperano che la controparte possa lasciare un socket sulla nuova scheda madre del server, se il test ha esito positivo, ne acquisteranno un lotto.

La produzione di massa rappresenta un’altra sfida oltre alla progettazione, alla tape-out e alla produzione. I piccoli team devono considerare se possono prenotare capacità di produzione?

"La produzione è sempre un numero molto critico per le fabbriche Fab." Wu Zihao, un ex esperto di costruzioni di fabbriche di TSMC, ha affermato che i produttori devono capire in quale collegamento entrano e quanta produzione promettono. Questo è il punto più critico per impressionare la Fab.

I produttori di primo livello hanno sostanzialmente prenotato l'ultima capacità produttiva delle fabbriche Fab durante la fase DTCO (Design Technology Collaborative Optimization). Attualmente, i migliori team di progettazione del mondo, come ARM, hanno un gran numero di persone di stanza a TSMC ogni anno, tra cui. molti produttori di EDA.

DTC determina gli indicatori di prestazione dei processori di prossima generazione su nodi specifici, ad esempio quanto denaro può essere risparmiato e quanto le prestazioni possono essere migliorate attraverso una progettazione ragionevole del layout sul nodo da 3 nm.

"NVIDIA e Apple sono sempre disposte a testare i processi di produzione più avanzati. Finché TSMC propone un processo di produzione all'avanguardia, anche se la resa e il miglioramento delle prestazioni sono sconosciuti, cioè prima che il modello economico possa essere calcolato, prenoteranno già capacità produttiva. La progettazione collaborativa DTCO con le fabbriche Fab è la ragione fondamentale per cui i produttori di primo livello ottengono capacità produttiva", ha affermato Wu Zihao.

Se non c’è una progettazione collaborativa fin dall’inizio, la Fab Factory e il team Fabless, il Partito A e il Partito B, dovranno scambiarsi i ruoli. Poiché nessuno osa usarlo, la Fab Factory può solo promuovere il suo nuovo processo poco a poco , a partire dal processo con il rischio più basso.

Ad esempio, i chip delle macchine minerarie hanno una struttura molto semplice e dimensioni molto ridotte, quindi sono molto adatti per i test iniziali. Il primo cliente del chip Samsung da 3 nm è stata una fabbrica di attrezzature minerarie dalla Cina.

Wu Zihao ha dichiarato: "Dopo che la fabbrica Fab ha testato con successo l'acqua con ordini di clienti così piccoli, può provare a produrre in serie CPU per PC, chip per telefoni cellulari e infine chip AI, passo dopo passo".

Attualmente, i principali produttori nazionali hanno investito almeno miliardi di dollari in chip sviluppati internamente. Se una start-up vuole entrare nel gioco, deve avere un numero sufficiente di clienti iniziali o disporre di una piattaforma applicativa per supportare l'adattamento dei chip e le prove ed errori, oppure deve disporre di capitale sufficiente o di forti capacità finanziarie. Una di queste due condizioni deve essere necessaria essere soddisfatto.

Chen Wei ha detto a Xinchao IC che se si tratta di una società commerciale senza riserve di manodopera a basso costo e non fa affidamento su scuole o istituti di ricerca, avrà bisogno di finanziamenti non inferiori a 500 milioni di RMB fino a 1 miliardo di RMB prima della produzione di massa; è un istituto di ricerca o un istituto di ricerca. Con altri supporti, il costo del lavoro può essere ridotto notevolmente e la soglia monetaria può essere leggermente inferiore.

"Se non disponi di molti soldi, ma questa startup ha capacità di controllo dei costi molto forti, può sfruttare appieno la collaborazione a monte e a valle per ridurre i costi. Tutto è finalizzato a garantire la continuazione della ricerca e dello sviluppo del prodotto."

In termini di priorità nella selezione dei Fab, secondo chi ha familiarità con la questione, le startup sceglieranno inizialmente di ordinare la capacità produttiva di TSMC, seguita da GlobalFoundries, ma GlobalFoundries non dispone di processi e packaging avanzati, quindi si rivolgeranno a SMIC, ma SMIC All la capacità produttiva prenotabile a livello internazionale è prevista per il prossimo anno.

Per quanto riguarda questa situazione, gli istituti di investimento adottano una prospettiva a lungo termine.

Yu Hao ha affermato che solo per i chip di fascia alta sviluppati internamente, è inevitabile affrontare colli di bottiglia legati all'eliminazione del nastro nel breve termine. Il lungo termine dipende dalla velocità di evoluzione della lucidatura della linea di processo avanzata e dall'espansione della capacità rappresentata da SMIC dipende principalmente dalla circolazione interna. Tuttavia, i produttori con capacità di progettazione di chip di fascia alta potrebbero voler prendere in considerazione l’idea di andare all’estero e utilizzare la circolazione esterna per stimolare la circolazione interna.

03 Non è facile essere il “becchino” di Nvidia

I vecchi clienti avviano la propria attività e Nvidia è sempre quella che si fa male.

Questa ondata globale di ricerca personale sta esplodendo più della precedente. Oltre a risultati maturi di ricerca personale come Google TPU e Amazon Graviton. Recentemente, l'intero circolo tecnologico è stato colpito da "Sohu, il primo chip AI al mondo dedicato a Transformer".

La startup statunitense di chip Etched lancia il chip AI Sohu specifico per Transformer

Questo chip incorpora direttamente l'architettura Transformer nel chip e le sue prestazioni di ragionamento superano di gran lunga quelle delle GPU e di altri chip di intelligenza artificiale generale. Si dice che sia 10 volte più potente del B200, un chip di prim'ordine lanciato solo nel. Marzo di quest'anno. Si dice che un server dotato di 8 chip Sohu abbia prestazioni paragonabili a un cluster di 160 GPU H100 e possa elaborare fino a 500.000 token Llama 7B al secondo.

Nacque il “pollo fritto popolare” e la fabbrica Fab ed i suoi soci furono contenti.

È stato riferito che l'azienda ha collaborato direttamente con il processo TSMC a 4 nm per la produzione di chip Sohu e ha ottenuto forniture sufficienti di HBM e server dai migliori fornitori. Alcuni dei primi clienti hanno già prenotato decine di milioni di dollari in hardware dall'azienda. I netizen hanno dato a Etched un soprannome: "Becchino di Nvidia".

Ma il mito della “ricerca personale” di NVIDIA verrà infranto a causa del fumo che sale? in realtà no.

Nell'industria dei semiconduttori esiste un famoso "ciclo di Mr. Ben" - i tipi di chip si evolvono regolarmente tra generalizzazione e personalizzazione - in un certo periodo, la struttura generale vende il meglio ed è popolare tra gli utenti. Benvenuto, ma dopo aver raggiunto un certo stadio , le strutture per scopi generali restano indietro nel rispondere a bisogni specifici e le strutture per scopi speciali diventeranno popolari.

E NVIDIA rappresenta giustamente l'era dell'architettura universale, che sembra essere ancora al suo apice.

Secondo le statistiche di Wells Fargo, NVIDIA detiene attualmente il 98% del mercato globale dell’accelerazione AI dei data center e occupa una posizione dominante assoluta. Ciò significa che il 98% della popolazione mondiale utilizza CUDA C di NVIDIA per “spremere” le prestazioni di tutte le GPU, e solo il restante 2%-3% delle persone insiste ancora nell’usare un cattivo “martello”, per martellare lo stesso "chiodo".

"Ora, sia Amazon che Intel, i processori che producono loro stessi non possono soddisfare economicamente la massimizzazione degli interessi di un fornitore cloud, quindi continueranno sicuramente a utilizzare chip NVIDIA in grandi quantità finché un giorno NVIDIA perderà completamente il suo vantaggio. On the road di specializzazione in zootecnia, dice la persona informata.

Tuttavia, sdraiarsi non è in linea con la personalità di NVIDIA. Huang Renxun è una persona che sa "nascere nel dolore e morire nella felicità". Nel suo discorso all'Università Nazionale di Taiwan un anno fa, disse: "Se si tratta di correre per il cibo , o no Quando vieni usato come cibo dagli altri, spesso non hai idea in quale situazione ti trovi, ma continui a correre qualunque cosa accada.

Questa volta, affrontando la sfida dell'autoricerca nell'intera Silicon Valley, anche Nvidia gioca le sue carte.

La suddetta persona senior ha detto a Xinchao IC: “Nvidia non è più una GPU generica Nella sua unità GPU, puoi vedere un gran numero di Tensor Core per risolvere calcoli a matrice. Inoltre, puoi anche vedere motori Transformer, sparse motori, ecc., sia in termini di struttura hardware che di aggiornamenti degli operatori hardware, NVIDIA si sta spingendo ogni anno verso la tendenza della progettazione basata su DSA.

DSA (Domain Specific Architecture) è un'architettura di processore programmabile personalizzata per campi specifici, in grado di ottimizzare le prestazioni e l'economicità di applicazioni specifiche. Attualmente Google, Tesla, OpenAI e Cerebras hanno lanciato i propri chip DSA per applicazioni specifiche.

Secondo chi ha familiarità con la questione, tutti i produttori di DSA scopriranno che anche se Nvidia non modifica l'hardware e le GPU generiche aggiornano solo un operatore, i vantaggi dei produttori di DSA andranno completamente persi. Sembra che rispetto a NVIDIA, non solo l'area del chip logico non sia abbastanza grande, ma anche la capacità e la velocità del dispositivo non siano abbastanza grandi, la potenza di calcolo non sia buona come quella di NVIDIA e l'adattabilità del software non sia abbastanza buona ciò che devono affrontare tutti i produttori DSA. Il problema: il ciclo Muben originariamente si sarebbe spostato verso un'architettura e una personalizzazione specifiche del dominio DSA, ma ora è tornato all'era dei processori generici.

Oltre a "guardarsi allo specchio" con i produttori di DSA, Nvidia ha anche esteso un ramoscello d'ulivo alla ricerca personale. All'inizio del 2024, ha istituito un nuovo dipartimento aziendale, guidato dalla veterana dei semiconduttori Dina McKinney, specificamente per il cloud computing e le telecomunicazioni 5G. e giochi Costruiamo chip personalizzati per clienti nel settore automobilistico e in altri settori.

Reuters ha citato persone a conoscenza della questione che affermano che i dirigenti di Nvidia hanno incontrato rappresentanti di Amazon, Meta, Microsoft, Google e OpenAI per discutere di chip personalizzati per loro. Oltre ai chip per data center, l'azienda sta anche cercando di ottenere telecomunicazioni e automobili e client di videogiochi.

In precedenza, è stato riferito che la nuova versione della console di gioco Nintendo Switch lanciata da Nintendo quest'anno sarà probabilmente dotata dei chip personalizzati di NVIDIA. NVIDIA ha anche una profonda presenza nel mercato dei dispositivi portatili e ha lanciato una serie di chip mobili Tegra. Sebbene questa serie di chip alla fine non abbia occupato un posto nel mercato dei dispositivi mobili.

In un mercato dominato dal rapporto costo-efficacia, non è così facile essere il becchino di Nvidia. La maggior parte dei precedenti becchini hanno fallito: alla fine potrebbero essere acquisiti. Ad esempio, Intel e Google hanno acquisito molte startup, ma la maggior parte delle altre società non hanno nemmeno aspettato l'acquisizione e sono morte direttamente.

Forse è più facile per le start-up avere successo se cambiano prospettiva.

"Ad esempio, non siate ossessionati dal processore AI in sé. Invece di dedicare molto tempo a realizzare l'ideale di un DSA, è meglio considerare soluzioni a livello di sistema. Ad esempio, le periferiche possono essere realizzate fornire servizi per il processore AI e l'archiviazione professionale, anche i sensori professionali possono raggiungere lo stesso scopo", ha affermato una persona a conoscenza della questione.

Nel 2019, Nvidia ha annunciato che avrebbe acquisito Mellanox per 6,9 miliardi di dollari. Questa valutazione era così alta che Nvidia ha quasi superato l'intero flusso di cassa.

Questa azienda non sviluppa né porte né moduli fotovoltaici, né sviluppa interruttori stessi. Realizza solo un prodotto: il PHY "InfiniBand" per l'interconnessione ad alta velocità tra lo strato inferiore dello switch e lo strato inferiore della comunicazione. Per Nvidia, che all'epoca era ansiosa di superare i limiti dell'interconnessione dei server, questo era un requisito fondamentale per le periferiche. Non importa quanto fosse valido NVLink in quel momento, era sempre legato ad una singola macchina. Ma InfiniBand può consentire agli switch di superare il collo di bottiglia dell'interconnessione tra i server e di interconnettere tutte le GPU in un cluster di grandi dimensioni.

Guardando la situazione attuale, la situazione interna è in forte espansione e i proiettili dei chip sviluppati internamente dovranno volare per un po’. Chen Wei ritiene che costruire un gioco non sia una cosa negativa, ma che sia necessario costruire un gioco di fascia alta per evitare di perdere il periodo critico per lo sviluppo industriale.

Zhou Jiangong, il fondatore di Unfinished Research, ha ulteriormente ampliato questo punto di vista. Crede che le applicazioni future richiederanno chip AI professionali, personalizzati e miniaturizzati che supereranno la domanda di modelli di base di grandi dimensioni all'avanguardia. La formazione open source, modelli più piccoli a un costo inferiore o la messa a punto e la distillazione di modelli di grandi dimensioni, così come l'inferenza, offrono ampio spazio ai chip sviluppati internamente. Inoltre, nei rapidi cambiamenti e nella fase immatura delle nuove tecnologie, ci saranno un gran numero di opportunità di ricerca personale sulle applicazioni di cui sopra.

"Non fare cose che pongano fine a Nvidia, ma fai più cose oltre a Nvidia."