nouvelles

La puce IA la plus puissante de NVIDIA révèle des défauts de conception majeurs et la version spéciale chinoise exposée accidentellement !

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nouveau rapport de sagesse

Editeur : Tellement endormi Taozi

[Introduction à la nouvelle sagesse] En raison de défauts de conception, la puce d'IA la plus puissante de Nvidia, Blackwell, va vraiment être retardée dans l'expédition. Les pères donneurs étaient en deuil et tous les projets prévus devraient être retardés d'au moins trois mois.

Le GPU NVIDIA a toujours été l’élément vital de la recherche et du développement en IA pour les grandes entreprises modèles telles qu’OpenAI.

Désormais, en raison de défauts de conception des GPU Blackwell, les expéditions de Nvidia doivent être retardées de 3 mois, voire plus.

Des informations rapportent en exclusivité que les ingénieurs de TSMC ont découvert la faille ces dernières semaines alors qu'ils préparaient les puces Blackwell pour la production de masse.


La semaine dernière, Lao Huang a déclaré au SIGGRAPH que NVIDIA avait soumis des échantillons d'ingénierie Blackwell à des clients du monde entier.

L’expression de soulagement sur son visage ne laissait aucune trace de retards inattendus.

Alors, où sont les défauts dans la conception de la puce ?

Le GB200 contient 2 GPU Blackwell et 1 CPU Grace. Le problème réside dans le circuit clé reliant les deux GPU Blackwell.

C'est ce problème qui a fait baisser le taux de rendement du GB200 de TSMC.


L'expédition retardée des dernières puces signifie que pour les grandes entreprises technologiques telles que Meta, Google et Microsoft, le processus de formation en IA sera affecté.

De plus, la construction de leur centre de données sera inévitablement retardée.

On dit que les puces Blackwell devraient être expédiées en grandes quantités jusqu'au premier trimestre de l'année prochaine.

Dans le dernier rapport de SemiAnalysis, il détaille également les défis techniques rencontrés par NVIDIA, le calendrier après des livraisons retardées et le nouveau système MGX GB200A Ultra NVL36.


Blackwell retarde le mois de mars, au milieu du tollé

Je me souviens encore que lors de la conférence GTC 2024, Lao Huang détenait le GPU à architecture Blackwell le plus puissant et annonçait au monde la bête de performance la plus puissante.

En mai, il a déclaré publiquement que « nous prévoyons d'expédier un grand nombre de puces à architecture Blackwell plus tard cette année ».

Il a même déclaré avec confiance lors de la réunion relative au rapport financier : « Nous verrons beaucoup de revenus à Blackwell cette année ».

Les actionnaires de NVIDIA fondent de grands espoirs sur le GPU Blackwell.


Les analystes de Keybanc Capital Markets estiment que les puces Blackwell feront passer les revenus des centres de données Nvidia de 47,5 milliards de dollars en 2024 à plus de 200 milliards de dollars en 2025.

En d’autres termes, la série de GPU Blackwell jouera un rôle décisif dans les ventes et les revenus futurs de Nvidia.

De manière inattendue, les défauts de conception ont directement affecté les objectifs de production de Nvidia pour le second semestre de cette année et le premier semestre de l’année prochaine.

Les initiés impliqués dans la conception des puces Blackwell ont révélé que Nvidia travaillait avec TSMC pour tester la production et le fonctionnement des puces afin de résoudre le problème le plus rapidement possible.

Cependant, les mesures correctives actuelles de Nvidia consistent à continuer à prolonger l'expédition des puces de la série Hopper et à accélérer la production de GPU Blackwell comme prévu au second semestre de cette année.

Dépensant des dizaines de milliards de dollars, la formation à l'IA est retardée

De plus, cet effet en chaîne portera un coup fatal aux grands développeurs de modèles et aux fournisseurs de services cloud des centres de données.

Afin de former l’IA, des bailleurs de fonds tels que Meta, Microsoft et Google ont dépensé des dizaines de milliards de dollars et commandé un grand nombre de puces Blackwell.

Google a commandé plus de 400 000 Go200, plus le matériel serveur, le coût de la commande de Google dépasse largement les 10 milliards de dollars américains.

Cette année, le géant dépense déjà environ 50 milliards de dollars en puces et autres équipements, soit une augmentation de plus de 50 % par rapport à l'année dernière.

En outre, Meta a également passé des commandes d'au moins 10 milliards de dollars, tandis que le montant des commandes de Microsoft a augmenté de 20 % ces dernières semaines.

Cependant, le montant spécifique des commandes de ces deux sociétés n’a pas encore été déterminé.

Selon des personnes proches du dossier, Microsoft prévoit de préparer 55 000 à 65 000 puces GB200 pour OpenAI d'ici le premier trimestre 2025.

De plus, la direction de Microsoft avait initialement prévu de fournir à OpenAI des serveurs alimentés par Blackwell en janvier 2025.


Il apparaît désormais que le plan initial doit être reporté au mois de mars ou au printemps suivant.

Selon le calendrier initialement prévu, ils commenceront à exploiter le nouveau cluster de calcul intensif au premier trimestre 2025.

Les entreprises d’IA, dont OpenAI, attendent d’utiliser de nouvelles puces pour développer la prochaine génération de LLM.

Étant donné que la formation de grands modèles nécessite beaucoup plus de puissance de calcul, elle peut mieux répondre à des questions complexes, automatiser des tâches en plusieurs étapes et générer des vidéos plus réalistes.

On peut dire que la prochaine génération d’IA super puissante dépend des dernières puces IA de Nvidia.

Un retard rare dans l’histoire

Cependant, ce retard à grande échelle dans les commandes de puces est non seulement inattendu pour tout le monde, mais aussi rare.

TSMC prévoyait initialement de commencer la production de masse de puces Blackwell au troisième trimestre et de commencer les expéditions à grande échelle aux clients de Nvidia au quatrième trimestre.

Des initiés ont révélé que les puces Blackwell devraient désormais entrer en production de masse au quatrième trimestre et que s'il n'y a pas d'autres problèmes, les serveurs seront expédiés en grande quantité au cours des trimestres suivants.


En fait, dès 2020, la première version du GPU phare de Nvidia a dû être retardée en raison de certains problèmes.

Mais les risques encourus par Nvidia étaient faibles à l’époque, les clients n’étaient pas pressés de recevoir leurs commandes et les bénéfices des centres de données étaient relativement faibles.

Cette fois, il est en effet très rare que des défauts de conception majeurs soient découverts avant la production en série.

Les concepteurs de puces travaillent généralement avec les usines TSMC pour effectuer plusieurs tests de production et simulations afin de garantir la faisabilité du produit et un processus de fabrication fluide avant d'accepter des commandes importantes des clients.

Il est rare que TSMC arrête la chaîne de production et redessine un produit sur le point d'être produit en série.

Ils ont effectué des préparatifs complets pour la production de masse du GB200, notamment en allouant une capacité de machine dédiée.

Désormais, les robots doivent rester inactifs jusqu’à ce que le problème soit résolu.

Le défaut de conception affectera également la production et la livraison des racks de serveurs NVLink de Nvidia, car la société responsable des serveurs doit attendre de nouveaux échantillons de puces avant de finaliser la conception du rack de serveurs.

Obligé de lancer un remake

Les défis techniques ont également contraint NVIDIA à développer de toute urgence une nouvelle architecture de système et de composants, telle que le MGX GB200A Ultra NVL36.

Cette toute nouvelle conception aura également un impact significatif sur des dizaines de fournisseurs en amont et en aval.


En tant que puce la plus avancée technologiquement de la série Blackwell, NVIDIA a fait des choix techniques audacieux pour le GB200 au niveau du système.

Ce rack de 72 GPU offre une densité de puissance sans précédent de 125 kW par rack. En comparaison, la plupart des racks de centres de données ne disposent que de 12 à 20 kW.

Un système aussi complexe a également conduit à de nombreux problèmes liés à des problèmes d'alimentation électrique, à la surchauffe, à la croissance de la chaîne d'approvisionnement de refroidissement par eau, à des fuites du système de refroidissement par eau à déconnexion rapide et à divers problèmes de complexité des circuits imprimés, et a pris certains fournisseurs et concepteurs au dépourvu.

Ce n’est cependant pas ce qui pousse Nvidia à réduire sa production ou à procéder à des ajustements majeurs de sa feuille de route.

Le principal problème qui affecte réellement les livraisons est la conception de l'architecture Blackwell de NVIDIA elle-même.


Le package Blackwell est le premier package conçu pour la production en grand volume utilisant la technologie CoWoS-L de TSMC.

CoWoS-L nécessite l'utilisation d'un interposeur RDL avec une interconnexion locale en silicium (LSI) et des puces de pont intégrées pour relier les communications entre les différents calculs et stockages au sein du package.


CoWoS-L est beaucoup plus complexe que la technologie CoWoS-S actuelle, mais c'est l'avenir.

Nvidia et TSMC ont un plan de croissance très agressif, dépassant l'objectif d'un million de puces par trimestre.

Mais divers problèmes sont apparus en conséquence.

L'un des problèmes est que l'intégration de plusieurs ponts à bosses à pas fin dans l'interposeur organique et l'interposeur en silicium peut provoquer une inadéquation du coefficient de dilatation thermique (CTE) entre la puce en silicium, les ponts, l'interposeur organique et le substrat, entraînant une déformation.


La disposition des puces de pont nécessite une très grande précision, en particulier lorsqu'il s'agit des ponts entre les 2 puces informatiques principales, car ces ponts sont essentiels pour prendre en charge 10 To/s d'interconnexion puce à puce.

Selon certaines rumeurs, un problème de conception majeur serait lié à la puce de pont. Dans le même temps, les quelques couches métalliques supérieures du câblage mondial et les bosses de la puce doivent également être repensées. C’est l’une des principales raisons des retards de plusieurs mois.

Un autre problème est que TSMC ne dispose pas d’une capacité de production CoWoS-L suffisante.

Au cours des dernières années, TSMC a construit une grande quantité de capacité CoWoS-S, Nvidia représentant la majorité des parts.

Aujourd'hui, alors que Nvidia déplace rapidement la demande vers CoWoS-L, TSMC construit un nouveau Fab AP6 pour CoWoS-L et modernise la capacité CoWoS-S existante dans AP3.

À cette fin, TSMC doit transformer les anciennes capacités de production de CoWoS-S, sinon ces capacités seront inutilisées et CoWoS-L connaîtra une croissance plus lente. Et ce processus de transformation rendra la croissance très inégale.

En combinant ces deux problèmes, TSMC est évidemment incapable de fournir suffisamment de puces Blackwell selon les besoins de Nvidia.

En conséquence, Nvidia concentre la quasi-totalité de sa capacité de production sur les systèmes rackables GB200 NVL 36x2 et NVL72. Et les modules informatiques HGX équipés de B100 et B200 ont été annulés.


Comme alternative, NVIDIA lancera un Blackwell GPU-B200A basé sur la puce B102 et équipé d'une mémoire HBM à 4 couches pour répondre aux besoins des systèmes d'IA de milieu à bas de gamme.

Il est intéressant de noter que cette puce B102 sera également utilisée dans « l’édition spéciale » chinoise B20.

Étant donné que le B102 est une puce informatique monolithique, Nvidia peut non seulement le conditionner sur CoWoS-S, mais également laisser d'autres fournisseurs que TSMC réaliser le conditionnement 2.5D, tels qu'Amkor, ASE SPIL et Samsung.

Le B200A apparaîtra sous les formes HGX de 700 W et 1 000 W, équipé de jusqu'à 144 Go de mémoire vidéo HBM3E et d'une bande passante jusqu'à 4 To/s. Il convient de noter que c'est inférieur à la bande passante mémoire du H200.

La prochaine étape est la version améliorée de milieu de gamme – Blackwell Ultra.

Le CoWoS-L Blackwell Ultra standard, à savoir B210 ou B200 Ultra, atteint non seulement jusqu'à 288 Go de HBM3E 12 couches en termes de rafraîchissement de la mémoire, mais améliore également les performances FLOPS jusqu'à 50 %.

Le B200A Ultra aura des FLOPS plus élevés, mais la mémoire vidéo ne sera pas mise à niveau.

En plus d'avoir la même configuration HGX que le B200A d'origine, le B200A Ultra introduit également une nouvelle forme MGX NVL 36.


Les performances/TCO de HGX Blackwell sont excellentes lors de la formation de charges de travail avec moins de 5 000 GPU.

Néanmoins, le MGX NVL36 constitue un choix idéal pour de nombreux modèles de nouvelle génération en raison de son infrastructure plus flexible.

Étant donné que le Llama 3 405B est déjà proche de la limite du serveur H200 HGX, la prochaine génération MoE LAMA 4 ne rentrera certainement pas dans un seul nœud de serveur Blackwell HGX.

Combiné avec l'estimation du prix du MGX B200A Ultra NVL36, SemiAnalysis estime que le HGX B200A ne se vendra pas très bien.

Architecture MGX GB200A Ultra NVL36

Le SKU MGX GB200A NVL36 est un serveur rack de 40 kW/rack refroidi par air avec 36 GPU entièrement interconnectés via NVLink.

Parmi eux, chaque rack sera équipé de 9 plateaux de calcul et de 9 plateaux NVSwitch. Chaque plateau informatique est 2U et contient 1 processeur Grace et 4 GPU B200A Blackwell de 700 W. Chaque plateau NVSwitch 1U ne possède qu'un seul commutateur ASIC et la bande passante de chaque commutateur ASIC est de 28,8 Tbit/s.

En comparaison, le GB200 NVL72/36x2 contient 2 processeurs Grace et 4 GPU Blackwell de 1 200 W.


Avec seulement 40 kW par rack et la possibilité d'être refroidi par air, les opérateurs de centres de données existants peuvent facilement déployer le MGX NVL36 sans réingénierie de leur infrastructure.

Contrairement au GB200 NVL72/36x2, le ratio de 4 GPU pour 1 CPU signifie que chaque GPU ne peut obtenir que la moitié de la bande passante C2C.

Par conséquent, le MGX NVL36 ne peut pas utiliser l'interconnexion C2C, mais nécessite un commutateur PCIe ConnectX-8 intégré pour compléter la communication GPU-CPU.

De plus, contrairement à tous les autres serveurs IA existants (HGX H100/B100/B200, GB200 NVL72/36x2, MI300), chaque carte réseau backend sera désormais responsable de 2 GPU.

Cela signifie que bien que la conception de la carte réseau ConnectX-8 puisse fournir 800 Go de réseau back-end, chaque GPU ne peut accéder qu'à 400 Go de bande passante back-end InfiniBand/RoCE. (Également sur GB200 NVL72/36x2 moitié)


Le cœur du plateau de calcul GB200 NVL72/NVL36x2 est la carte Bianca, qui contient 2 GPU Blackwell B200 et 1 CPU Grace.

Puisque chaque plateau informatique est équipé de 2 cartes Bianca, un total de 2 processeurs Grace et 4 GPU Blackwell de 1 200 W seront équipés.


En revanche, le CPU et le GPU du MGX GB200A NVL36 seront sur des PCB différents, similaires à la conception du serveur HGX.

Mais contrairement aux serveurs HGX, les 4 GPU par plateau de calcul seront subdivisés en 2 cartes 2 GPU. Chaque carte 2 GPU est équipée d'un connecteur Mirror Mezz similaire à la carte Bianca.

Ces connecteurs Mirror Mezz seront ensuite utilisés pour se connecter au midplane ConnectX-8 et connecter l'ASIC ConnectX-8 avec son switch PCIe intégré au GPU, au stockage NVMe local et au CPU Grace.

Étant donné que l'ASIC ConnectX-8 est très proche du GPU, il n'est pas nécessaire de resynchroniser entre le GPU et la carte réseau ConnectX-8. HGX H100/B100/B200 l’exige.

De plus, comme il n'y a pas d'interconnexion C2C entre le CPU Grace et le GPU Blackwell, le CPU Grace sera sur un PCB complètement indépendant, qui est la carte mère du CPU. Cette carte mère contiendra des connecteurs BMC, une batterie CMOS, des connecteurs MCIO, etc.


La bande passante NVLink par GPU sera de 900 Go/s dans chaque direction, ce qui est la même que celle du GB200 NVL72/36x2. Par FLOP, cela augmente considérablement la bande passante GPU à GPU, donnant au MGX NVL36 un avantage dans certaines charges de travail.

Puisqu’une seule couche de commutateurs connecte 36 GPU, seuls 9 ASIC NVSwitch sont nécessaires pour fournir une mise en réseau non bloquante.

De plus, étant donné que chaque plateau de commutation 1U ne possède qu'un seul ASIC de 28,8 Tbit/s, le refroidissement par air est très simple. Par exemple, un switch 1U à 25,6 Tbit/s comme le Quantum-2 QM9700 fera l'affaire.


Sur le réseau backend, puisqu'il n'y a que 2 ports 800G par plateau de calcul, il utilisera un réseau de fin de rangée optimisé à 2 rails.

Pour chaque 8 racks GB200A NVL36, il y aura 2 commutateurs Quantum-X800 QM3400.


Dans le cas de 700 W par GPU, la consommation électrique de chaque rack du GB200A NVL36 peut être d'environ 40 kW, soit 4 kW de dissipation thermique dans un espace 2U.

En conséquence, des dissipateurs thermiques spécialement conçus et des ventilateurs à grande vitesse seront nécessaires pour le refroidissement de l'air.


Défis liés au déploiement du MGX GB200A NVL 36

Étant donné que le GB200A NVL36 repose entièrement sur le refroidissement par air et qu'en plus de la carte réseau PCIe à l'avant du châssis 2U, il existe également un commutateur PCIe dédié, ce qui augmentera considérablement le défi de la gestion thermique.

Par conséquent, la personnalisation de la carte réseau backend sur le GB200A NVL36 est fondamentalement impossible.

Étant donné que de nombreuses dépendances d'apprentissage automatique sont compilées et optimisées pour les processeurs x86, et que le processeur Grace et le GPU Blackwell se trouvent sur des PCB séparés, il est probable qu'il y aura également une version x86+B200A NVL36.

Cependant, bien que le processeur x86 puisse fournir des performances de pointe plus élevées, la consommation électrique sera proportionnellement plus élevée de 100 W, augmentant ainsi considérablement les défis de gestion thermique des OEM.

De plus, compte tenu des ventes de Grace CPU, même si NVIDIA lance la solution x86 B200A NVL36, ils pousseront les clients à choisir le GB200A NVL36.

Bien entendu, le GB200A NVL36 a également son propre argument de vente : un système de refroidissement par air de 40 kW par rack.

Après tout, de nombreux clients ne peuvent pas se permettre le refroidissement liquide et l'infrastructure d'alimentation requis pour un GB200 NVL72 avec environ 125 kW par rack (ou un 36x2 avec une consommation électrique totale de plus de 130 kW).

Le H100 a un TDP de 700 W et utilise actuellement un 3DVC de 4U de hauteur, tandis que le H200 de 1 000 W utilise un 3DVC de 6U de hauteur.

En comparaison, le TDP du MGX B200A NVL36 est également de 700 W mais le châssis ne fait que 2U, donc l'espace est assez limité. Par conséquent, une aileron en forme de balcon étendu horizontalement sera nécessaire pour augmenter la surface de l'aileron.


En plus de nécessiter un dissipateur thermique plus grand, les ventilateurs doivent également fournir un flux d'air plus important que le plateau de calcul GB200 NVL72/36x2 2U ou la conception GPU HGX 8.

Selon les estimations, dans un rack de 40 kW, 15 à 17 % de la puissance totale du système sera utilisée pour les ventilateurs internes du châssis. En comparaison, le ventilateur du HGX H100 ne consomme que 6 à 8 % de la puissance totale du système.

En raison de la grande quantité de puissance du ventilateur requise pour faire fonctionner correctement le MGX GB200A NVL36, il s'agit d'une conception extrêmement inefficace.

Pourquoi annuler GB200A NVL64

Avant que Nvidia ne finalise le MGX GB200A NVL36, ils essayaient également de concevoir un rack NVL64 refroidi par air qui consomme 60 kW et transporte 64 GPU entièrement interconnectés via NVLink.

Cependant, après une analyse technique approfondie, SemiAnalysis a déterminé que le produit n’était pas réalisable et ne serait pas disponible dans le commerce.

Dans le SKU NVL64 proposé, il y a 16 plateaux de calcul et 4 plateaux NVSwitch. Chaque plateau de calcul est 2U et contient un processeur Grace et quatre GPU Blackwell de 700 W, tout comme le MGX GB200A NVL36.

La principale modification concerne les plateaux NVSwitch : au lieu de réduire les 2 NVSwitches du GB200 par plateau à 1, Nvidia essaie de les augmenter à 4 commutateurs ASIC.


De toute évidence, il serait presque impossible de refroidir un géant avec une consommation d’énergie aussi élevée uniquement par l’air. (NVIDIA a proposé 60 kW, SemiAnalysis a estimé 70 kW)

Cela nécessite généralement l'utilisation d'un échangeur de chaleur à porte arrière, mais cela va à l'encontre de l'intérêt de l'architecture de rack refroidi par air, car on dépend toujours de la chaîne d'approvisionnement de refroidissement liquide. De plus, cette solution nécessite encore des modifications au niveau des installations dans la plupart des centres de données pour acheminer l'eau de refroidissement vers l'échangeur thermique de la porte arrière.

Un autre problème thermique très difficile est que le plateau NVSwitch contiendra quatre commutateurs ASIC 28,8 Tbit/s dans un châssis 1U, nécessitant près de 1 500 W de puissance de refroidissement.

Vu individuellement, il n'est pas difficile d'atteindre 1 500 W dans un châssis 1U. Cependant, si l'on considère que les fils volants Ultrapass du commutateur ASIC au connecteur du fond de panier bloquent une grande partie du flux d'air, le défi de refroidissement devient important.

Compte tenu de la nécessité de commercialiser extrêmement rapidement le rack MGX NVL refroidi par air, Nvidia a tenté de livrer le produit dans les six mois suivant le lancement de la conception. Cependant, concevoir de nouvelles palettes de commutation et chaînes d’approvisionnement est très difficile pour une industrie déjà à court de ressources.


L'autre problème majeur du GB200A NVL64 est qu'il existe 64 ports back-end 800G par rack, mais chaque commutateur XDR Quantum-X800 Q3400 comporte 72 ports aval 800G. En d’autres termes, chaque switch disposera de 16 ports 800G vacants.

Avoir des ports vides sur des commutateurs back-end coûteux peut avoir un impact significatif sur les performances du réseau et le coût total de possession, car les commutateurs sont coûteux, en particulier les commutateurs modulaires à haute densité de ports comme le Quantum-X800.


De plus, utiliser 64 GPU dans le même domaine NVLink n’est pas idéal.

En apparence, 64 est un bon nombre car il a 2, 4, 8, 16 et 32 ​​comme facteurs communs, ce qui le rend parfait pour différentes configurations parallèles.

Par exemple, parallélisme tensoriel TP=8, parallélisme expert EP=8 ou TP=4, parallélisme de données entièrement fragmentées FSDP=16.

Malheureusement, en raison du manque de fiabilité du matériel, Nvidia recommande de conserver au moins un plateau de calcul par rack NVL comme pièce de rechange afin que le GPU puisse être mis hors ligne pendant la maintenance et utilisé comme pièce de rechange.

Sans au moins un plateau de calcul en disque de secours par rack, même une seule panne de GPU peut entraîner la mise hors service de l'ensemble du rack pendant une période de temps significative. Ceci est similaire à la façon dont sur un serveur HGX H100 à 8 GPU, une seule panne de GPU forcera les 8 H100 hors service.

En conservant au moins un plateau de calcul comme disque de secours, seuls 60 GPU par rack peuvent gérer la charge de travail. Dans ce cas, les avantages que nous venons d’évoquer n’existent plus.


Le NVL36×2 ou NVL72 est équipé de 72 GPU, ce qui signifie que les utilisateurs peuvent non seulement utiliser 2 plateaux informatiques comme disques de secours, mais également disposer de 64 GPU disponibles pour une utilisation sur chaque rack.

Le GB200A NVL36 peut avoir 1 plateau informatique en mode veille. À l'heure actuelle, il y en a 2, 4, 8 et 16 comme facteurs communs de la solution parallèle.

Impact sur la chaîne d'approvisionnement

Selon les spéculations de SemiAnalysis, les expéditions de GB200 NVL72/36x2 seront réduites ou retardées, et les expéditions de B100 et B200 HGX seront considérablement réduites.

Pendant ce temps, les expéditions de Hopper augmenteront du quatrième trimestre 2024 au premier trimestre 2025.

De plus, les commandes de GPU seront transférées de HGX Blackwell et GB200 NVL36x2 vers MGX GB200A NVL36 au cours du second semestre.

Cela aura un impact sur tous les ODM et fournisseurs de composants, car les plans d'expédition et de revenus changeront considérablement du troisième trimestre 2024 au deuxième trimestre 2025.

Les références:

https://www.theinformation.com/articles/nvidias-new-ai-chip-is-delayed-impacting-microsoft-google-meta?rc=epv9gi

https://www.semianalysis.com/p/nvidias-blackwell-reworked-shipment