notizia

NVIDIA è entrata in un momento difficile, perché siamo ancora ottimisti?

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Testo |. Shidao, autore |. Shidao AI Group, editore |

NVIDIA è stata nei guai di recente ed è un grosso problema.

Il primo è "l'aggressione straniera". A causa delle continue "piccole mosse", l'azienda si trova ad affrontare un'indagine antitrust da parte del Dipartimento di Giustizia degli Stati Uniti.

Il secondo riguarda le "preoccupazioni interne". A causa di errori di progettazione del prodotto, i tempi di spedizione del nuovo chip Blackwell subiranno un ritardo di tre mesi.

La settimana scorsa, il prezzo delle azioni di Nvidia è andato sulle montagne russe: martedì è sceso del 7% mercoledì, è salito di quasi il 13% giovedì, ha chiuso in ribasso di quasi il 7% venerdì, è sceso del 7% intraday;Anche considerando la volatilità, Nvidia ha superato Bitcoin.La volatilità implicita della sua opzione a 30 giorni è recentemente aumentata dal 48% al 71%, mentre l'indice Bitcoin DVOL è sceso dal 68% al 49%.

Il noto hedge fund Elliott ha detto agli investitori: Nvidia è in una "bolla" e la tecnologia AI è stata sopravvalutata. L'agenzia ha affermato che i maggiori clienti di Nvidia stanno sviluppando i propri chip e dubita che i giganti continueranno ad acquistare le GPU di Nvidia in grandi quantità. Quando scoppierà la bolla? Elliott ritiene che se i risultati finanziari di Nvidia saranno deludenti, potrebbe verificarsi una rottura.

È innegabile che Nvidia stia entrando in un "periodo difficile", ma è ancora troppo presto per essere "combattuta su tutti i fronti".

La supervisione prende di mira specificamente i “sette pollici” di NVIDIA, essendo costante ma non spietata

All'inizio di luglio, la Francia ha sparato il primo colpo antitrust contro NVIDIA. Nelle settimane successive Nvidia venne presa di mira anche dal Dipartimento di Giustizia americano.

The Information ha riferito che gli investigatori del Dipartimento di Giustizia degli Stati Uniti hanno visitato le case degli "avversari" e dei "clienti" di Nvidia per raccogliere le accuse di tutti.

Accusa 1: NVIDIA minaccia i clienti.Quando acquisti chip AMD, Nvidia potrebbe aumentare il prezzo per te o addirittura ridurre le spedizioni di GPU originariamente promesse.

Accusa 2: distribuzione forzata da parte di Nvidia di cavi e rack di rete.I grandi sofferenti includono: Microsoft, Google, Amazon...

Una volta, per ottenere i diritti di spedizione prioritaria, Microsoft ha stretto i denti e ha acquistato i cavi di rete di Nvidia. Quando i conti sono stati saldati all'inizio del 2023, si è scoperto che 1/3 del denaro pagato a Nvidia veniva speso per questi prodotti "edge". . È stato riferito che le vendite di cavi di rete di Nvidia sono più che triplicate raggiungendo i 3,2 miliardi di dollari, pari al 14% delle entrate totali dei suoi data center.

Oggi, anche il vicepresidente di Nvidia Andrew Bell ha dichiarato: "Chi comprerà lo scaffale avrà la priorità nell'ottenere GB200".
Microsoft è sfuggita al disastro dopo settimane di "discussioni", mentre Amazon e Google hanno entrambi concordato a causa della loro coercizione.

Accusa tre: Nvidia acquisisce Run:ai.La transazione è stata annunciata ufficialmente alla fine di aprile di quest'anno, con un prezzo di acquisto di 700 milioni di dollari.

Run:ai è una startup israeliana focalizzata sulla semplificazione delle applicazioni AI e dei carichi di lavoro sulle GPU, rendendo così i chip AI più efficienti, il che a sua volta aiuta a ridurre il numero di GPU Nvidia necessarie per completare le attività.

L'integrazione da parte di Nvidia delle funzionalità di Run:ai nei prodotti esistenti non solo "uccide" la possibilità del suo utilizzo da parte degli avversari,Ha inoltre aumentato la portata di DGX e DGX Cloud.

Lao Huang Zaoyun è "un 'buon rifugio' per NVIDIA per evitare di diventare Cisco." Uno è che le aziende cloud e software generano miliardi di dollari ogni anno. La seconda è che Nvidia ha "tutte le leve" per sviluppare servizi complementari ai suoi chip.

Che si tratti della già citata "assegnazione rigorosa delle GPU", "impegno nella distribuzione di beni e acquisti e vendite forzati" e "costruzione di un cloud e di un ecosistema", queste sono tutte le "mosse difficili" di Huang Renxun per consolidare l'impero NVIDIA in il lungo termine. Dopotutto, il suo obiettivo è che ogni azienda nel mondo... possa utilizzare Nvidia AI Enterprise.

Pertanto, questa indagine del Dipartimento di Giustizia degli Stati Uniti può essere descritta come "stabile e accurata" e ha raggiunto i "sette pollici" di Nvidia.

Ma quanto a “essere spietati o meno” è un altro discorso. Dopotutto, le indagini antitrust spesso durano anni e alla fine il governo potrebbe non sporgere denuncia contro la società presa di mira. Anche se viene avviato un contenzioso, il caso può trascinarsi per anni prima di essere concluso.

Ad esempio, il caso antitrust relativo alla ricerca di Google del 2020 è arrivato al processo solo quest’anno e il giudice responsabile del caso non ha ancora emesso una sentenza.

Per riassumere, sebbene questa indagine antitrust avvenga in modo feroce e rapido, sembra che non possa danneggiare le fondamenta dell’impero GPU.

Sono previsti due impatti diretti su Nvidia.

Innanzitutto, influisce sulle acquisizioni future. Ad esempio, nel 2021, la FTC ha intentato una causa per motivi antitrust per impedire a Nvidia di spendere 40 miliardi di dollari per acquisire Arm da SoftBank. Guardandolo ora, Masayoshi Son può tornare in vita grazie alla FTC.

Il secondo è quello di reprimere l’“accordo del signore supremo”. Dopotutto è stato preso di mira e le "piccole mosse" di Nvidia potrebbero essere frenate.

Nvidia trema e lo sviluppo globale dell’intelligenza artificiale rallenta

Parliamo delle “preoccupazioni interne” dei prodotti Nvidia.

Secondo i rapporti,A causa di difetti di progettazione, i modelli B100 e B200 di NVIDIA sono stati annullati. Quelli precedentemente ordinati sono stati consegnati al 20% della quantità ordinata e sono stati successivamente aggiornati al B200A. Le consegne dovrebbero iniziare a metà del prossimo anno.

Tuttavia, al momento il progresso del GB200 non ha subito ritardi. Il "re più forte" GB200 non è solo un chip, ma una potente piattaforma che combina due chip B200. (1 GB200 ha 1 CPU Grace + 2 B200).

È stato riferito che la domanda di mercato per il B100 in sé non è elevata e che i clienti sono passati dal B100 al B200 (domanda di oltre 450.000 unità).

A giudicare dal feedback di alcune istituzioni, la soluzione attuale è utilizzare H200 per colmare prima il divario.Nvidia lancerà principalmente H200 nel terzo trimestre e aggiungerà un po' di H200 ai clienti in ottobre e novembre, e tutto tornerà alla normalità al più tardi entro dicembre.

Questo ritardo interromperà i piani di implementazione dei principali clienti come Meta, Google e Microsoft e potrebbe influenzare il progresso dello sviluppo di prodotti e servizi che si basano sui chip AI di Nvidia, tra cui l'intelligenza artificiale generativa, l'elaborazione video e altre applicazioni AI.

In altre parole, anche se gli analisti gridassero "bolla NVIDIA", una volta che succede qualcosa a NVIDIA, il processo di sviluppo globale dell'intelligenza artificiale rallenterà.

Cioè, se vuoi dimostrare che la bolla NVIDIA sta per scoppiare, o dimostrare che la bolla dell'intelligenza artificiale sta per scoppiare o dimostrare che la domanda di mercato per le GPU sta rallentando o dimostrare che NVIDIA è competitiva; i prodotti iniziano a brillare.

Ma al momento non è possibile fornire prove di un successo.

Perché sei ottimista su Nvidia

Innanzitutto, la bolla dell’IA sta per scoppiare? NO.

Come il capo più "pessimista", il "professor Dalong" Daron Acemoglu, il dio delle migliori pubblicazioni internazionali, ritiene che nei prossimi 10 anni l'intelligenza artificiale aumenterà la produttività di circa lo 0,53% fino allo 0,66% e aumenterà il PIL di circa lo 0,9%.

Anche Jim Covello, responsabile globale della ricerca azionaria presso Goldman Sachs, è piuttosto pessimista: l’intelligenza artificiale deve essere in grado di risolvere problemi complessi prima che le sue entrate superino le sue spese, che ammontano a circa 1 trilione di dollari.Per quanto riguarda la bolla dell'intelligenza artificiale, l'opinione di Covello è che potrebbe volerci molto tempo per scoppiare.

Allo stesso tempo, Morgan Stanley e il “TMT King” Coatue di Wall Street sono molto ottimisti riguardo alle prospettive dell’intelligenza artificiale.

Morgan Stanley ritiene che l’attuale boom degli investimenti nelle infrastrutture dell’intelligenza artificiale sia nelle sue fasi iniziali e non abbia ancora raggiunto il livello della bolla Internet del 1999. Gli investimenti nella GPU, in particolare, sono appena iniziati.

Coatue ritiene che l’intelligenza artificiale non sia una montatura e che l’età dell’oro non sia ancora arrivata; l’intelligenza artificiale non è una bolla di valutazione, ma è principalmente un gioco per giganti.

In secondo luogo, la GPU è già piena? NO.

Ecco la battaglia tra Sequoia e a16z.

Sequoia ha "parlato male" delle GPU, credendo che il picco di carenza di offerta fosse passato, e ha calcolato che il divario nelle entrate del settore dell'intelligenza artificiale dovuto all'acquisto di GPU ha raggiunto i 500 miliardi di dollari.

a16z, d'altra parte, non solo ha speso centinaia di milioni di dollari per fare scorta di migliaia di GPU, ma ha anche lanciato il "Progetto Oxygen" in modo di alto profilo, pianificando infine di espandere le dimensioni del cluster GPU a un numero maggiore di unità. più di 20.000 unità.

Com'è pratico? Che ne dici di cambiare il nostro modo di pensare?

Il pensiero convenzionale - il modello è potente e compaiono applicazioni killer - maggiore è la richiesta di potenza di calcolo - maggiore è la richiesta di GPU.

Ma d’altra parte, se facciamo un’analogia tra l’era dell’IA e l’era di Internet. Si può concludere che Internet è una rete di computer e il modello AI è un computer connesso alla rete. Proprio come tutti hanno un PC e uno smartphone, nell’era dell’intelligenza artificiale appariranno una varietà di modelli di intelligenza artificiale e tutti formeranno un ecosistema completo.

Pertanto, l’era dell’IA richiede maggiore potenza di calcolo. Ma ora il costo della potenza di calcolo è troppo alto ed è scarsa, il che influisce ulteriormente sul progresso dello sviluppo dell’intelligenza artificiale. Ciò può essere visto dal tremore di NVIDIA e dal rallentamento dello sviluppo globale dell'intelligenza artificiale.

Inoltre, anche se non guardiamo al lungo termine, guardiamo solo al breve termine. Dalla formazione all'inferenza, esiste una domanda enorme e insoddisfatta di potenza di calcolo.

Citando i calcoli di Neocortex x CBN. Secondo le statistiche di Omdia, alla fine del 2023, le spedizioni totali di Nvidia H100 hanno raggiunto 1,2 milioni. Nei quattro trimestri fino alla fine di aprile 2024, Nvidia ha guadagnato 65,8 miliardi di dollari attraverso le vendite di chip AI. Considerando che il prezzo di ciascun H100 è di 40.000 dollari, NVIDIA ha venduto circa 1,645 milioni di H100 negli ultimi quattro trimestri. Approssimativamente equivalente al mercato complessivo della formazione dei modelli (ovvero, presupponendo che 100 modelli di livello GPT-3.5, 50 di livello GPT-4, 10 modelli di linguaggio di livello GPT-5 di grandi dimensioni e 10 modelli di generazione di immagini di livello Midjourney siano stati formati a livello globale e 1/ 4 dei 20 modelli di generazione video di livello Sora).

Questa è solo la domanda del mercato per la formazione dei modelli. L'inferenza è un mercato che è di ordini di grandezza più grande e non si è ancora veramente aperto. Se calcoliamo in modo conservativo che ogni persona genera solo un video al mese, la richiesta di potenza di calcolo globale per l’inferenza di modelli di grandi dimensioni è equivalente a 10,4 milioni di chip H100, ovvero il doppio di quella necessaria per l’addestramento dei modelli. E se la tecnologia e il mercato della generazione video diventeranno più maturi, il consumo di potenza di calcolo necessaria per l’inferenza aumenterà fino a decine o addirittura centinaia di volte rispetto ai requisiti di formazione.

Il CEO di Google Pichai ha dichiarato: "Il rischio di investimenti insufficienti è di gran lunga maggiore del rischio di investimenti eccessivi".

Come ha affermato Zuckerberg, CEO di Meta: "Preferirei investire eccessivamente piuttosto che risparmiare denaro rallentando lo sviluppo".

Microsoft sostiene che l’attuale capacità di potenza di calcolo dell’intelligenza artificiale limita le sue entrate finanziarie e che questa situazione continuerà almeno fino al primo trimestre dell’anno fiscale 2025. Musk ha persino sviluppato il suo supercomputer per sfidare Nvidia.

Infine, il fossato di Nvidia è forte? SÌ.

Per quanto riguarda il futuro di NVIDIA, Coatue ha espresso direttamente le sue opinioni:Se c’è una bolla, non è una bolla di valutazione, ma una bolla in cui i profitti vengono spostati in avanti.

Quindi, chi può sfidare Nvidia?

Da un lato, rispetto alle tre principali accuse menzionate sopra, Nvidia ha un'accusa più grande: bundle di software e hardware.

Oggi, oltre il 95% dei processori nei data center utilizza GPU NVIDIA. L'intera domanda di intelligenza artificiale nel cloud si basa ancora sull'ecosistema CUDA e CUDA può essere utilizzato solo con chip NVIDIA. I programmatori non vogliono imparare un'altra lingua e CUDA è addirittura considerato il fossato di NVIDIA.

Per rovesciare la "tirannia" di Nvidia, Google, Meta e Microsoft attualmente vogliono unire le forze per partecipare al progetto linguistico open source Triton lanciato da OpenAI, Intel e Qualcomm vogliono anche utilizzare Triton per derubare i clienti di Nvidia;

Sebbene Triton possa indebolire la quota di mercato di Nvidia, gli analisti di Citi stimano che la quota di Nvidia nel mercato dei chip AI generativi sarà ancora pari a circa il 63% entro il 2030, il che significa che manterrà il suo dominio per molti anni a venire.

D'altra parte, i giganti hanno lanciato sfide una dopo l'altra, e anche Nvidia è costantemente in corsa. Dopotutto, Huang Renxun terrà sicuramente presente i "problemi causati dall'arroganza" del suo predecessore Cisco.

Secondo il "ciclo Makimoto" dei semiconduttori - i tipi di chip si alternano regolarmente tra quelli generici e quelli personalizzati - le strutture generiche sono più popolari durante un certo periodo, ma dopo aver raggiunto un certo stadio, sorgeranno direttamente le strutture specializzate che soddisfano esigenze specifiche .

Attualmente, l’era delle strutture universali rappresentata da NVIDIA è in fase di sovversione.

Inoltre, all'inizio di quest'anno, Nvidia ha creato una nuova business unit per costruire chip personalizzati per i clienti del cloud computing, delle telecomunicazioni 5G, dei giochi, delle automobili e di altri settori. Ci sono notizie secondo cui il nuovo Nintendo Switch lanciato quest'anno sarà probabilmente dotato dei chip personalizzati di Nvidia.

Ma Nvidia è assolutamente solida come una roccia? Ho pensato ad una frase: "Il processo è giusto, ma il risultato è sbagliato." Per usare un'analogia inappropriata, se il forte potere contrattuale di Nvidia fa sì che il costo della potenza di calcolo dell'IA rimanga elevato per lungo tempo, inibendo così la larga scala. innovazione, potrebbe esserci anche un contraccolpo.