notizia

Il chip AI più potente di NVIDIA rivela importanti difetti di progettazione e la versione speciale cinese è stata accidentalmente scoperta!

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nuovo rapporto sulla saggezza

Editor: Taozi così assonnato

[Introduzione alla Nuova Saggezza] A causa di difetti di progettazione, la spedizione del chip AI più potente di Nvidia, Blackwell, subirà davvero ritardi. I padri donatori erano in lutto e si prevedeva che tutti i piani previsti sarebbero stati ritardati di almeno tre mesi.

La GPU NVIDIA è sempre stata la linfa vitale della ricerca e dello sviluppo dell'intelligenza artificiale per grandi aziende di modelli come OpenAI.

Ora, a causa di difetti di progettazione delle GPU Blackwell, le spedizioni di Nvidia devono essere ritardate di 3 mesi o anche di più.

Le informazioni riportano esclusivamente che gli ingegneri di TSMC hanno scoperto il difetto nelle ultime settimane mentre preparavano i chip Blackwell per la produzione di massa.


Proprio la settimana scorsa, Lao Huang ha dichiarato al SIGGRAPH che NVIDIA ha presentato campioni di ingegneria Blackwell a clienti di tutto il mondo.

L'espressione di sollievo sul suo volto non lasciava presagire alcun ritardo inaspettato.

Allora, dove sono i difetti nella progettazione del chip?

GB200 contiene 2 GPU Blackwell e 1 CPU Grace. Il problema risiede nel circuito chiave che collega le due GPU Blackwell.

È questo problema che ha causato il calo del tasso di rendimento del GB200 di TSMC.


Il ritardo nella spedizione degli ultimi chip significa che per le principali aziende tecnologiche come Meta, Google e Microsoft il processo di formazione sull’intelligenza artificiale ne risentirà.

Inoltre, la costruzione dei loro data center subirà inevitabilmente ritardi.

Si dice che i chip Blackwell dovrebbero essere spediti in grandi quantità fino al primo trimestre del prossimo anno.

Nell'ultimo rapporto di SemiAnalysis, si dettagliano anche le sfide tecniche affrontate da NVIDIA, il programma dopo le spedizioni ritardate e il nuovo sistema MGX GB200A Ultra NVL36.


Blackwell ritarda marzo, tra le proteste

Ricordo ancora che alla conferenza GTC 2024, Lao Huang aveva in mano la più potente GPU con architettura Blackwell e annunciò al mondo la bestia dalle prestazioni più potenti.

A maggio, ha dichiarato pubblicamente che "prevediamo di spedire un gran numero di chip con architettura Blackwell entro la fine dell'anno".

Durante la riunione del rapporto finanziario ha anche affermato con sicurezza: "Quest'anno vedremo molte entrate della Blackwell".

Gli azionisti di NVIDIA nutrono grandi speranze per la GPU Blackwell.


Gli analisti di Keybanc Capital Markets stimano che i chip Blackwell porteranno i ricavi dei data center Nvidia da 47,5 miliardi di dollari nel 2024 a oltre 200 miliardi di dollari nel 2025.

In altre parole, la serie di GPU Blackwell giocherà un ruolo decisivo nelle vendite e nei ricavi futuri di Nvidia.

Inaspettatamente, i difetti di progettazione hanno influenzato direttamente gli obiettivi di produzione di Nvidia per la seconda metà di quest'anno e la prima metà del prossimo anno.

Gli addetti ai lavori coinvolti nella progettazione dei chip Blackwell hanno rivelato che Nvidia sta lavorando con TSMC per testare la produzione e il funzionamento dei chip per risolvere il problema il prima possibile.

Tuttavia, le attuali misure correttive di Nvidia consistono nel continuare ad estendere la spedizione dei chip della serie Hopper e nell'accelerare la produzione delle GPU Blackwell come previsto nella seconda metà di quest'anno.

Spendendo decine di miliardi di dollari, la formazione dell’IA subisce ritardi

Non solo, questo effetto a catena avrà un colpo fatale per gli sviluppatori di modelli di grandi dimensioni e i fornitori di servizi cloud di data center.

Per addestrare l’intelligenza artificiale, finanziatori come Meta, Microsoft e Google hanno speso decine di miliardi di dollari e hanno ordinato un gran numero di chip Blackwell.

Google ha ordinato più di 400.000 GB200, più l'hardware del server, il costo dell'ordine di Google supera di gran lunga i 10 miliardi di dollari USA.

Quest’anno, il colosso sta già spendendo circa 50 miliardi di dollari in chip e altre apparecchiature, con un aumento di oltre il 50% rispetto allo scorso anno.

Inoltre, Meta ha piazzato ordini per almeno 10 miliardi di dollari, mentre la dimensione degli ordini di Microsoft è aumentata del 20% nelle ultime settimane.

Tuttavia, la dimensione specifica degli ordini di queste due società non è stata ancora determinata.

Secondo persone a conoscenza della questione, Microsoft prevede di preparare 55.000-65.000 chip GB200 per OpenAI entro il primo trimestre del 2025.

Inoltre, il management di Microsoft aveva originariamente pianificato di fornire server basati su Blackwell a OpenAI nel gennaio 2025.


Sembra ora che il piano originale debba essere rinviato a marzo o alla primavera successiva.

Secondo il calendario originariamente previsto, il nuovo cluster di supercalcolo inizierà a funzionare nel primo trimestre del 2025.

Le aziende di intelligenza artificiale, inclusa OpenAI, sono in attesa di utilizzare nuovi chip per sviluppare la prossima generazione di LLM.

Poiché l'addestramento di modelli di grandi dimensioni richiede una potenza di calcolo molto maggiore, può rispondere meglio a domande complesse, automatizzare attività in più fasi e generare video più realistici.

Si può dire che la prossima generazione di IA superpotente dipende dagli ultimi chip IA di Nvidia.

Un ritardo raro nella storia

Tuttavia, questo ritardo nell’ordine di chip su larga scala non è solo inaspettato per tutti, ma anche raro.

TSMC inizialmente prevedeva di iniziare la produzione di massa dei chip Blackwell nel terzo trimestre e di iniziare le spedizioni su larga scala ai clienti Nvidia nel quarto trimestre.

Addetti ai lavori hanno rivelato che i chip Blackwell dovrebbero ora entrare in produzione di massa nel quarto trimestre e, se non ci saranno ulteriori problemi, i server verranno spediti in grandi quantità nei trimestri successivi.


Infatti, già nel 2020, la prima versione della GPU di punta di Nvidia ha dovuto essere ritardata a causa di alcuni problemi.

Ma i rischi affrontati da Nvidia all’epoca erano bassi, i clienti non avevano fretta di ricevere i loro ordini e i profitti da ricavare dai data center erano relativamente scarsi.

Questa volta, è davvero molto raro che vengano scoperti gravi difetti di progettazione prima della produzione di massa.

I progettisti di chip in genere collaborano con le fabbriche TSMC per condurre molteplici test e simulazioni di produzione per garantire la fattibilità del prodotto e un processo di produzione regolare prima di accettare ordini di grandi dimensioni dai clienti.

È raro che TSMC fermi la linea di produzione e riprogetta un prodotto che sta per essere prodotto in serie.

Hanno effettuato tutti i preparativi per la produzione di massa GB200, inclusa l'assegnazione di capacità macchina dedicata.

Ora i robot devono restare inattivi finché il problema non viene risolto.

Il difetto di progettazione influenzerà anche la produzione e la consegna dei server rack NVLink di Nvidia, poiché la società responsabile dei server deve attendere nuovi campioni di chip prima di finalizzare il progetto del server rack.

Costretto a lanciare un remake

Le sfide tecniche hanno inoltre costretto NVIDIA a sviluppare urgentemente un nuovo sistema e un'architettura di componenti, come MGX GB200A Ultra NVL36.

Questo nuovissimo design avrà anche un impatto significativo su decine di fornitori a monte e a valle.


Essendo il chip tecnologicamente più avanzato della serie Blackwell, NVIDIA ha fatto scelte tecniche coraggiose per GB200 a livello di sistema.

Questo rack da 72 GPU offre una densità di potenza senza precedenti di 125 kW per rack. In confronto, la maggior parte dei rack dei data center ha solo da 12 kW a 20 kW.

Un sistema così complesso ha anche portato a numerosi problemi legati all'erogazione di energia, al surriscaldamento, alla crescita della catena di fornitura del raffreddamento ad acqua, a perdite del sistema di raffreddamento ad acqua a disconnessione rapida e a vari problemi di complessità dei circuiti stampati, e ha colto di sorpresa alcuni fornitori e progettisti.

Tuttavia, non è questo che spinge Nvidia a ridurre la produzione o ad apportare importanti modifiche alla tabella di marcia.

Il problema principale che influisce davvero sulle spedizioni è il design dell'architettura Blackwell stessa di NVIDIA.


Il pacchetto Blackwell è il primo pacchetto progettato per la produzione in grandi volumi utilizzando la tecnologia CoWoS-L di TSMC.

CoWoS-L richiede l'uso di un interposer RDL con interconnessione locale del silicio (LSI) e chip bridge incorporati per collegare le comunicazioni tra vari sistemi di elaborazione e archiviazione all'interno del pacchetto.


CoWoS-L è molto più complessa dell'attuale tecnologia CoWoS-S, ma è il futuro.

Nvidia e TSMC hanno un piano di crescita molto aggressivo, superando l'obiettivo di un milione di chip a trimestre.

Ma di conseguenza sono sorti vari problemi.

Un problema è che l'incorporamento di più ponti bump a passo fine nell'interpositore organico e nell'interpositore di silicio può causare una mancata corrispondenza del coefficiente di espansione termica (CTE) tra la matrice di silicio, i ponti, l'interpositore organico e il substrato, con conseguente deformazione.


Il layout dei chip bridge richiede una precisione molto elevata, soprattutto quando si tratta dei bridge tra i 2 chip di calcolo principali, poiché questi bridge sono fondamentali per supportare 10 TB/s di interconnessione chip-to-chip.

Si dice che un grosso problema di progettazione sia legato al chip bridge. Allo stesso tempo, anche i primi strati metallici del cablaggio globale e le protuberanze del chip devono essere riprogettati. Questo è uno dei motivi principali dei ritardi di molti mesi.

Un altro problema è che TSMC non dispone di sufficiente capacità produttiva di CoWoS-L.

Negli ultimi anni, TSMC ha costruito una grande quantità di capacità CoWoS-S, con Nvidia che rappresenta la maggioranza della quota.

Ora, con Nvidia che sta rapidamente spostando la domanda verso CoWoS-L, TSMC sta costruendo un nuovo favoloso AP6 per CoWoS-L e aggiornando la capacità CoWoS-S esistente in AP3.

A tal fine, TSMC deve trasformare la vecchia capacità produttiva di CoWoS-S, altrimenti queste capacità rimarranno inattive e CoWoS-L crescerà più lentamente. E questo processo di trasformazione renderà la crescita molto disomogenea.

Combinando questi due problemi, TSMC non è ovviamente in grado di fornire un numero sufficiente di chip Blackwell secondo le esigenze di Nvidia.

Di conseguenza, Nvidia sta concentrando quasi tutta la sua capacità produttiva sui sistemi rack-scale GB200 NVL 36x2 e NVL72. E i moduli informatici HGX equipaggiati con B100 e B200 sono stati cancellati.


In alternativa, NVIDIA lancerà una Blackwell GPU-B200A basata sul chip B102 e dotata di memoria HBM a 4 strati per soddisfare le esigenze dei sistemi AI di fascia medio-bassa.

È interessante notare che questo chip B102 verrà utilizzato anche nell’“edizione speciale” B20 cinese.

Dato che il B102 è un chip informatico monolitico, Nvidia non solo può confezionarlo su CoWoS-S, ma può anche lasciare che altri fornitori oltre a TSMC eseguano il packaging 2.5D, come Amkor, ASE SPIL e Samsung.

Il B200A apparirà nei modelli HGX da 700 W e 1000 W, dotati di un massimo di 144 GB di memoria video HBM3E e di una larghezza di banda fino a 4 TB/s. Vale la pena notare che questo è inferiore alla larghezza di banda della memoria dell'H200.

La prossima è la versione migliorata di fascia media: Blackwell Ultra.

Il CoWoS-L Blackwell Ultra standard, ovvero B210 o B200 Ultra, non solo raggiunge fino a 288 GB di HBM3E a 12 layer in termini di aggiornamento della memoria, ma migliora anche le prestazioni FLOPS fino al 50%.

B200A Ultra avrà FLOPS più elevati, ma la memoria video non verrà aggiornata.

Oltre ad avere la stessa configurazione HGX del B200A originale, il B200A Ultra introduce anche una nuova forma MGX NVL 36.


Le prestazioni/TCO dell'HGX Blackwell sono eccellenti durante l'addestramento di carichi di lavoro con meno di 5.000 GPU.

Tuttavia, l’MGX NVL36 è la scelta ideale per molti modelli di prossima generazione grazie alla sua infrastruttura più flessibile.

Poiché il Llama 3 405B è già vicino al limite del server H200 HGX, il MoE LLAMA 4 di prossima generazione non si adatterà sicuramente a un singolo nodo del server Blackwell HGX.

In combinazione con la stima del prezzo di MGX B200A Ultra NVL36, SemiAnalysis ritiene che HGX B200A non venderà molto bene.

Architettura MGX GB200A Ultra NVL36

La SKU MGX GB200A NVL36 è un server rack da 40 kW raffreddato ad aria con 36 GPU completamente interconnesse tramite NVLink.

Tra questi, ogni rack sarà dotato di 9 vassoi di calcolo e 9 vassoi NVSwitch. Ogni vassoio di elaborazione è 2U e contiene 1 CPU Grace e 4 GPU Blackwell B200A da 700 W. Ciascun vassoio NVSwitch 1U ha un solo ASIC switch e la larghezza di banda di ciascun ASIC switch è di 28,8 Tbit/s.

In confronto, il GB200 NVL72/36x2 racchiude 2 CPU Grace e 4 GPU Blackwell da 1200 W.


Con soli 40 kW per rack e la possibilità di raffreddamento ad aria, gli operatori dei data center esistenti possono facilmente implementare MGX NVL36 senza riprogettare la propria infrastruttura.

A differenza del GB200 NVL72/36x2, il rapporto tra 4 GPU e 1 CPU significa che ciascuna GPU può ottenere solo metà della larghezza di banda C2C.

Pertanto, MGX NVL36 non può utilizzare l'interconnessione C2C, ma richiede uno switch ConnectX-8 PCIe integrato per completare la comunicazione GPU-CPU.

Inoltre, a differenza di tutti gli altri server AI esistenti (HGX H100/B100/B200, GB200 NVL72/36x2, MI300), ciascuna NIC backend sarà ora responsabile di 2 GPU.

Ciò significa che sebbene il design della scheda NIC ConnectX-8 possa fornire 800G di rete back-end, ciascuna GPU può accedere solo a 400G di larghezza di banda InfiniBand/RoCE back-end. (Anche su GB200 NVL72/36x2 metà)


Il cuore del vassoio di calcolo GB200 NVL72/NVL36x2 è la scheda Bianca, che contiene 2 GPU Blackwell B200 e 1 CPU Grace.

Poiché ogni vassoio di elaborazione è dotato di 2 schede Bianca, verranno equipaggiate un totale di 2 CPU Grace e 4 GPU Blackwell da 1200 W.


Al contrario, la CPU e la GPU dell'MGX GB200A NVL36 saranno su PCB diversi, in modo simile al design del server HGX.

Ma a differenza dei server HGX, le 4 GPU per vassoio di calcolo saranno suddivise in 2 schede da 2 GPU. Ogni scheda da 2 GPU è dotata di un connettore Mirror Mezz simile alla scheda Bianca.

Questi connettori Mirror Mezz verranno quindi utilizzati per connettersi al midplane ConnectX-8 e collegare l'ASIC ConnectX-8 con il suo switch PCIe integrato alla GPU, allo storage NVMe locale e alla CPU Grace.

Poiché l'ASIC ConnectX-8 è molto vicino alla GPU, non è necessario un retimer tra la GPU e la NIC ConnectX-8. HGX H100/B100/B200 lo richiede.

Inoltre, poiché non esiste alcuna interconnessione C2C tra la CPU Grace e la GPU Blackwell, la CPU Grace si troverà su un PCB completamente indipendente, ovvero la scheda madre della CPU. Questa scheda madre conterrà connettori BMC, batteria CMOS, connettori MCIO, ecc.


La larghezza di banda NVLink per GPU sarà di 900 GB/s in ciascuna direzione, la stessa del GB200 NVL72/36x2. Su base per FLOP, ciò aumenta significativamente la larghezza di banda da GPU a GPU, offrendo a MGX NVL36 un vantaggio in determinati carichi di lavoro.

Poiché solo un livello di switch collega 36 GPU, sono necessari solo 9 ASIC NVSwitch per fornire una rete non bloccante.

Inoltre, poiché ogni vano switch 1U ha un solo ASIC da 28,8 Tbit/s, il raffreddamento ad aria è molto semplice. Ad esempio, andrà bene uno switch 1U da 25,6 Tbit/s come Quantum-2 QM9700.


Sulla rete backend, poiché sono presenti solo 2 porte da 800G per vassoio di elaborazione, utilizzerà una rete end-of-row ottimizzata a 2 binari.

Per ogni 8 rack GB200A NVL36, ci saranno 2 switch Quantum-X800 QM3400.


Nel caso di 700 W per GPU, il consumo energetico di ciascun rack di GB200A NVL36 può essere di circa 40 kW, ovvero 4 kW di dissipazione del calore in uno spazio 2U.

Di conseguenza, per il raffreddamento dell’aria saranno necessari dissipatori di calore e ventole ad alta velocità appositamente progettati.


Sfide nell'implementazione di MGX GB200A NVL 36

Poiché il GB200A NVL36 si basa interamente sul raffreddamento ad aria e, oltre alla scheda NIC PCIe nella parte anteriore dello chassis 2U, è presente anche uno switch PCIe dedicato, che aumenterà significativamente la sfida della gestione termica.

Pertanto, personalizzare la scheda NIC backend sul GB200A NVL36 è praticamente impossibile.

Poiché molte delle dipendenze del machine learning sono compilate e ottimizzate per CPU x86 e la CPU Grace e la GPU Blackwell si trovano su PCB separati, è probabile che ci sarà anche una versione x86+B200A NVL36.

Tuttavia, sebbene la CPU x86 possa fornire prestazioni di picco più elevate, il consumo energetico sarà corrispondentemente più elevato di 100 W, aumentando così notevolmente le sfide di gestione termica degli OEM.

Inoltre, considerando le vendite della CPU Grace, anche se NVIDIA lanciasse la soluzione x86 B200A NVL36, spingerebbero i clienti a scegliere GB200A NVL36.

Naturalmente anche il GB200A NVL36 ha il suo punto di forza: un sistema di raffreddamento ad aria da 40kW per rack.

Dopotutto, molti clienti non possono permettersi il raffreddamento a liquido e l'infrastruttura di alimentazione necessaria per un GB200 NVL72 con circa 125 kW per rack (o un 36x2 con un consumo energetico totale di oltre 130 kW).

L'H100 ha un TDP di 700 W e attualmente utilizza un 3DVC di altezza 4U, mentre l'H200 da 1000 W utilizza un 3DVC di altezza 6U.

In confronto, anche il TDP di MGX B200A NVL36 è di 700 W ma lo chassis è solo 2U, quindi lo spazio è piuttosto limitato. Pertanto sarà necessaria una pinna a balcone estesa orizzontalmente per aumentare la superficie della pinna.


Oltre a richiedere un dissipatore di calore più grande, le ventole devono anche fornire un flusso d'aria più potente rispetto al vassoio di elaborazione GB200 NVL72/36x2 2U o al design della GPU HGX 8.

Secondo le stime, in un rack da 40 kW, dal 15% al ​​17% della potenza totale del sistema verrà utilizzata per le ventole interne dello chassis. In confronto, la ventola dell'HGX H100 consuma solo dal 6% all'8% della potenza totale del sistema.

A causa della grande quantità di potenza della ventola richiesta per far funzionare correttamente l'MGX GB200A NVL36, questo è un progetto estremamente inefficiente.

Perché annullare GB200A NVL64

Prima di finalizzare l'MGX GB200A NVL36, Nvidia stava anche cercando di progettare un rack NVL64 raffreddato ad aria che consuma 60 kW e trasporta 64 GPU completamente interconnesse tramite NVLink.

Tuttavia, dopo un'approfondita analisi tecnica, SemiAnalysis ha stabilito che il prodotto non era fattibile e non sarebbe stato disponibile in commercio.

Nella SKU NVL64 proposta sono presenti 16 vassoi di elaborazione e 4 vassoi NVSwitch. Ogni vassoio di elaborazione è 2U e contiene una CPU Grace e quattro GPU Blackwell da 700 W, proprio come l'MGX GB200A NVL36.

La modifica principale riguarda i vassoi NVSwitch: invece di ridurre i 2 NVSwitch per vassoio del GB200 a 1, Nvidia sta cercando di aumentarli a 4 switch ASIC.


Ovviamente, sarebbe quasi impossibile raffreddare un colosso con un consumo energetico così elevato attraverso la sola aria. (NVIDIA ha proposto 60kW, SemiAnalysis ha stimato 70kW)

Ciò richiede in genere l'uso di uno scambiatore di calore sulla porta posteriore, ma ciò vanifica l'utilità dell'architettura rack raffreddata ad aria poiché si fa ancora affidamento sulla catena di fornitura del raffreddamento a liquido. Inoltre, questa soluzione richiede ancora modifiche a livello di struttura nella maggior parte dei data center per convogliare l'acqua di raffreddamento allo scambiatore di calore della porta posteriore.

Un altro problema termico molto difficile è che il vassoio NVSwitch conterrà quattro switch ASIC da 28,8 Tbit/s in uno chassis 1U, che richiederanno quasi 1500 W di potenza di raffreddamento.

Considerato individualmente, non è difficile raggiungere 1500W in uno chassis 1U. Tuttavia, se si considera che i cavi volanti Ultrapass dallo switch ASIC al connettore del backplane bloccano gran parte del flusso d'aria, la sfida del raffreddamento diventa significativa.

Data la necessità di portare sul mercato il rack MGX NVL raffreddato ad aria in tempi estremamente rapidi, Nvidia ha tentato di consegnare il prodotto entro sei mesi dall'inizio della progettazione. Tuttavia, progettare nuovi pallet e catene di fornitura è molto difficile per un settore che è già a corto di risorse.


L'altro grosso problema con GB200A NVL64 è che ci sono 64 porte back-end da 800G per rack, ma ogni switch XDR Quantum-X800 Q3400 trasporta 72 porte downstream da 800G. In altre parole, ogni switch avrà 16 porte 800G libere.

Avere porte vuote su costosi switch back-end può avere un impatto significativo sulle prestazioni della rete e sul costo totale di proprietà perché gli switch sono costosi, in particolare gli switch modulari ad alta densità di porte come Quantum-X800.


Inoltre, utilizzare 64 GPU nello stesso dominio NVLink non è l'ideale.

A prima vista, 64 è un buon numero perché ha 2, 4, 8, 16 e 32 come fattori comuni, il che lo rende perfetto per diverse configurazioni parallele.

Ad esempio, parallelismo tensore TP=8, parallelismo esperto EP=8 o TP=4, parallelismo dati completamente partizionati FSDP=16.

Sfortunatamente, a causa dell'inaffidabilità dell'hardware, Nvidia consiglia di tenere almeno 1 vassoio di elaborazione per rack NVL come riserva in modo che la GPU possa essere messa offline durante la manutenzione e utilizzata come riserva a caldo.

Senza almeno 1 vassoio di elaborazione nell'hot spare per rack, anche il guasto di 1 GPU può causare il fuori servizio dell'intero rack per un periodo di tempo significativo. Questo è simile a come su un server HGX H100 da 8 GPU, un singolo guasto della GPU forzerà il fuori servizio di tutti gli 8 H100.

Mantenere almeno un vassoio di elaborazione come hot spare significa che solo 60 GPU per rack possono gestire il carico di lavoro. In questo caso i vantaggi appena citati non sussistono più.


L'NVL36×2 o NVL72 è dotato di 72 GPU, il che significa che gli utenti non solo possono utilizzare 2 vassoi di calcolo come hot spare, ma hanno anche 64 GPU disponibili per l'uso su ciascun rack.

GB200A NVL36 può avere 1 vassoio di elaborazione come hot standby. Al momento, ci sono 2, 4, 8 e 16 come fattori comuni della soluzione parallela.

Impatto sulla catena di fornitura

Secondo le speculazioni di SemiAnalysis, le spedizioni di GB200 NVL72/36x2 saranno ridotte o ritardate, e le spedizioni di B100 e B200 HGX saranno significativamente ridotte.

Nel frattempo, le spedizioni di Hopper aumenteranno dal quarto trimestre del 2024 al primo trimestre del 2025.

Inoltre, gli ordini di GPU verranno trasferiti da HGX Blackwell e GB200 NVL36x2 a MGX GB200A NVL36 nella seconda metà dell'anno.

Ciò avrà un impatto su tutti gli ODM e sui fornitori di componenti poiché i piani di spedizione e di fatturato cambieranno in modo significativo dal terzo trimestre del 2024 al secondo trimestre del 2025.

Riferimenti:

https://www.theinformation.com/articles/nvidias-new-ai-chip-is-delayed-impacting-microsoft-google-meta?rc=epv9gi

https://www.semianalysis.com/p/nvidias-blackwell-reworked-shipment