nouvelles

NVIDIA est entré dans une période trouble, pourquoi sommes-nous toujours optimistes ?

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Texte | Shidao, auteur | Shidao AI Group, éditeur Rika |

NVIDIA a connu des difficultés récemment, et c'est un gros problème.

Le premier est « l'agression étrangère ». En raison de « petits mouvements » constants, l'entreprise fait face à une enquête antitrust du ministère américain de la Justice.

Le second concerne les « soucis internes ». En raison d'erreurs de conception du produit, le délai d'expédition de la nouvelle puce Blackwell sera retardé de trois mois.

La semaine dernière, le cours de l'action Nvidia a fait des montagnes russes : mardi, il a chuté de 7 % ; mercredi, il a grimpé de près de 13 % jeudi, il a clôturé en baisse de près de 7 % vendredi, il a chuté de 7 % en cours de journée ;Même en termes de volatilité, Nvidia a dépassé Bitcoin.Son option à 30 jours implique une volatilité récemment passée de 48 % à 71 %, tandis que l'indice Bitcoin DVOL est passé de 68 % à 49 %.

Le fonds spéculatif bien connu Elliott a déclaré aux investisseurs : Nvidia est dans une « bulle » et la technologie de l'IA a été surfaite. L'agence a déclaré que les plus gros clients de Nvidia développaient leurs propres puces et doutait que les géants continuent à acheter les GPU de Nvidia en grandes quantités. Quand la bulle va-t-elle éclater ? Elliott estime que si les résultats financiers de Nvidia sont médiocres, une rupture pourrait survenir.

Il est indéniable que Nvidia entre dans une « période troublée », mais il est encore trop tôt pour être « assiégé de toutes parts ».

La supervision cible spécifiquement les « sept pouces » de NVIDIA, étant stable mais pas impitoyable

Début juillet, la France a tiré le premier coup de feu antitrust contre NVIDIA. Dans les semaines suivantes, Nvidia a également été prise pour cible par le ministère américain de la Justice.

The Information rapporte que des enquêteurs du ministère américain de la Justice se sont rendus au domicile des « opposants » et des « clients » de Nvidia pour recueillir les accusations de chacun.

Allégation 1 : NVIDIA menace ses clients.Lorsque vous achetez des puces AMD, Nvidia peut augmenter le prix pour vous, voire réduire les livraisons de GPU initialement promises.

Allégation 2 : Nvidia a forcé la distribution de câbles et de racks réseau.Les grandes victimes sont : Microsoft, Google, Amazon...

Une fois, afin d'obtenir des droits d'expédition prioritaires, Microsoft a serré les dents et a acheté les câbles réseau de Nvidia. Lors du règlement des comptes début 2023, il a été découvert qu'un tiers de l'argent versé à Nvidia avait été dépensé pour ces produits « de pointe ». . Il est rapporté que les ventes de câbles réseau de Nvidia ont plus que triplé pour atteindre 3,2 milliards de dollars, ce qui représente 14 % du chiffre d'affaires total de son centre de données.

Aujourd'hui, le vice-président de Nvidia, Andrew Bell, a également déclaré : « Celui qui achètera l'étagère aura la priorité pour obtenir un GB200. »
Microsoft a échappé au désastre après des semaines de « querelles » ; tandis qu'Amazon et Google ont tous deux accepté sous la contrainte.

Troisième allégation : Nvidia acquiert Run:ai.La transaction a été officiellement annoncée fin avril de cette année, pour un prix d'achat de 700 millions de dollars.

Run:ai est une startup israélienne qui se concentre sur la simplification des applications et des charges de travail d'IA sur les GPU, rendant ainsi les puces d'IA plus efficaces, ce qui contribue à réduire le nombre de GPU Nvidia nécessaires pour accomplir les tâches.

L'intégration par Nvidia de la fonctionnalité Run:ai dans les produits existants non seulement « tue » la possibilité de son utilisation par des adversaires,Il a également augmenté sa portée DGX et DGX Cloud.

Lao Huang Zaoyun est "une 'bonne retraite' pour NVIDIA afin d'éviter de devenir Cisco". La première est que les entreprises de cloud computing et de logiciels génèrent des milliards de dollars chaque année. La seconde est que Nvidia dispose de « tous les leviers » pour développer des services complémentaires à ses puces.

Qu'il s'agisse de « l'allocation stricte de GPU », de « s'engager dans la distribution de marchandises et l'achat et la vente forcés » et de « construire un cloud et un écosystème », ce sont tous les « mouvements difficiles » de Huang Renxun pour consolider l'empire NVIDIA dans le long terme. Après tout, son objectif est que toutes les entreprises du monde... fonctionnent sur Nvidia AI Enterprise.

Par conséquent, cette enquête du ministère américain de la Justice peut être qualifiée de « stable et précise » et a touché les « sept pouces » de Nvidia.

Mais quant à savoir « être impitoyable ou non », c’est une autre affaire. Après tout, les enquêtes antitrust durent souvent des années et le gouvernement ne peut finalement pas engager de poursuites contre l'entreprise cible. Même si un procès est engagé, l'affaire peut s'éterniser pendant des années avant d'être conclue.

Par exemple, l’affaire antitrust de la recherche Google en 2020 n’a été jugée que cette année, et le juge responsable de l’affaire n’a pas encore rendu de décision.

En résumé, même si cette enquête antitrust est menée avec acharnement et rapidité, il semble qu’elle ne puisse pas nuire aux fondations de l’empire GPU.

Deux impacts directs sont attendus sur Nvidia.

Premièrement, cela affecte les acquisitions futures. Par exemple, en 2021, la FTC a intenté une action en justice pour des raisons antitrust afin d'empêcher Nvidia de dépenser 40 milliards de dollars pour acquérir Arm auprès de SoftBank. En y regardant maintenant, Masayoshi Son peut revenir à la vie grâce à la FTC.

La seconde est de réprimer « l'accord de suzerain ». Après tout, il a été ciblé et les « petits mouvements » de Nvidia pourraient être restreints.

Nvidia tremble et le développement mondial de l'IA ralentit

Parlons des « soucis internes » des produits Nvidia.

Selon les rapports,En raison de défauts de conception, les modèles NVIDIA B100 et B200 ont été annulés. Ceux précédemment commandés ont été livrés à 20 % de la quantité commandée, et ont ensuite été mis à niveau vers le B200A. Les livraisons devraient commencer au milieu de l'année prochaine.

Cependant, les progrès du GB200 n’ont pas été retardés pour l’instant. Le « roi le plus fort » GB200 n’est pas seulement une puce, mais une plate-forme puissante combinant deux puces B200. (1 Go200 a 1 processeur Grace + 2 B200).

Il est rapporté que la demande du marché pour le B100 lui-même n'est pas importante et que les clients sont passés du B100 au B200 (demande de plus de 450 000 unités).

À en juger par les retours de certaines institutions, la solution actuelle consiste d'abord à utiliser H200 pour combler cette lacune.Nvidia lancera principalement le H200 au troisième trimestre, et ajoutera quelques H200 aux clients en octobre et novembre, et tout sera normal au plus tard en décembre.

Ce retard perturbera les plans de déploiement de clients majeurs tels que Meta, Google et Microsoft, et pourrait affecter la progression du développement de produits et services reposant sur les puces d'IA de Nvidia, notamment l'IA générative, le traitement vidéo et d'autres applications d'IA.

En d’autres termes, même si les analystes crient « bulle NVIDIA », une fois que quelque chose arrive à NVIDIA, le processus mondial de développement de l’IA ralentira.

Autrement dit, si vous voulez prouver que la bulle NVIDIA est sur le point d'éclater, ou prouver que la bulle de l'IA est sur le point d'éclater ; ou prouver que la demande du marché pour les GPU ralentit ou prouver que la concurrence de NVIDIA ; les produits commencent à briller.

Mais pour le moment, vous ne pouvez pas prouver qu'il y a eu un succès.

Pourquoi vous êtes optimiste sur Nvidia

Premièrement, la bulle de l’IA est-elle sur le point d’éclater ? Non.

En tant que patron le plus « pessimiste », le « professeur Dalong » Daron Acemoglu, le dieu des principales publications internationales, estime qu'au cours des 10 prochaines années, l'IA augmentera la productivité d'environ 0,53 % à 0,66 % et augmentera le PIB d'environ 0,9 %.

Jim Covello, responsable mondial de la recherche sur les actions chez Goldman Sachs, est également assez pessimiste : l'IA doit être capable de résoudre des problèmes complexes avant que ses revenus ne dépassent ses dépenses, qui s'élèvent à environ 1 000 milliards de dollars.Quant à la bulle de l'IA, le point de vue de Covello est qu'elle pourrait mettre beaucoup de temps à éclater.

Dans le même temps, Morgan Stanley et Coatue, le « roi des TMT » de Wall Street, sont très optimistes quant aux perspectives de l’IA.

Morgan Stanley estime que le boom actuel des investissements dans les infrastructures d’IA n’en est qu’à ses débuts et n’a pas encore atteint le niveau de la bulle Internet de 1999. Les investissements dans les GPU, en particulier, viennent de commencer.

Coatue estime que l'IA n'est pas un battage médiatique et que l'âge d'or n'est pas encore arrivé ; l'IA n'est pas une bulle de valorisation, mais est principalement un jeu pour les géants.

Deuxièmement, le GPU est-il déjà plein ? Non.

Voici la bataille entre Sequoia et a16z.

Sequoia a « décrié » les GPU, estimant que le pic de pénurie d'approvisionnement était passé, et a calculé que l'écart de revenus de l'industrie de l'IA dû à l'achat de GPU atteignait 500 milliards de dollars.

a16z, d'autre part, a non seulement dépensé des centaines de millions de dollars pour s'approvisionner en milliers de GPU, mais a également lancé le « Projet Oxygène » de manière très médiatisée, prévoyant finalement d'étendre la taille du cluster GPU à plus plus de 20 000 unités.

Comment est-ce pratique ? Et si nous changions notre façon de penser.

La pensée conventionnelle - le modèle est puissant et les applications tueuses apparaissent - plus la demande de puissance de calcul est élevée, plus la demande de GPU est élevée.

Mais d’un autre côté, si l’on fait une analogie entre l’ère de l’IA et l’ère d’Internet. On peut conclure qu'Internet est un réseau d'ordinateurs et que le modèle d'IA est un ordinateur connecté au réseau. Tout comme tout le monde possède un PC et un smartphone, une variété de modèles d'IA apparaîtront à l'ère de l'IA, et tous formeront un écosystème complet.

Par conséquent, l’ère de l’IA nécessite plus de puissance de calcul. Mais aujourd’hui, le coût de la puissance de calcul est trop élevé et elle est rare, ce qui affecte encore davantage les progrès du développement de l’IA. Cela se voit au tremblement de NVIDIA et au ralentissement du développement mondial de l'IA.

De plus, même si on ne regarde pas le long terme, on regarde uniquement le court terme. De la formation à l’inférence, il existe une demande énorme et non satisfaite en puissance de calcul.

Citant les calculs de Neocortex x CBN. Selon les statistiques d'Omdia, fin 2023, les livraisons totales de Nvidia H100 atteignaient 1,2 million. Au cours des quatre trimestres clos fin avril 2024, Nvidia a gagné 65,8 milliards de dollars grâce aux ventes de puces IA. Sur la base d'un prix de 40 000 $ US pour chaque H100, NVIDIA a vendu environ 1,645 million de H100 au cours des quatre derniers trimestres. Approximativement équivalent au marché global de la formation de modèles (c'est-à-dire en supposant que 100 modèles de langage de niveau GPT-3.5, 50 de niveau GPT-4, 10 modèles de grand langage de niveau GPT-5 et 10 modèles de génération d'images de niveau Midjourney ont été formés à l'échelle mondiale, et 1/ 4 des 20 modèles de génération vidéo de niveau Sora).

Il s'agit simplement de la demande du marché pour la formation de modèles. L'inférence est un marché qui est d'un ordre de grandeur plus grand et qui n'est pas encore vraiment ouvert. Si l’on calcule prudemment que chaque personne ne génère qu’une seule vidéo par mois, la demande mondiale en puissance de calcul pour l’inférence de grands modèles équivaut à 10,4 millions de puces H100, soit le double de celle de la formation de modèles. Et si la technologie et le marché de la génération vidéo deviennent plus matures, la consommation d’énergie de calcul requise pour l’inférence atteindra des dizaines, voire des centaines de fois celle des besoins en formation.

Le PDG de Google, Pichai, a déclaré : « Le risque de sous-investissement est bien plus grand que le risque de surinvestissement. »

Comme l'a déclaré Zuckerberg, PDG de Meta : « Je préfère surinvestir plutôt que d'économiser de l'argent en ralentissant le développement. »

Microsoft affirme que la capacité actuelle de la puissance de calcul de l'IA limite ses revenus financiers, et cette situation perdurera au moins jusqu'au premier trimestre de l'exercice 2025. Musk a même développé son propre supercalculateur pour défier Nvidia.

Enfin, les douves de Nvidia sont-elles solides ? Oui.

Concernant l'avenir de NVIDIA, Coatue a exprimé directement son point de vue :S’il y a une bulle, ce n’est pas une bulle de valorisation, mais une bulle où les profits sont tirés vers l’avant.

Alors, qui peut défier Nvidia ?

D'une part, par rapport aux trois accusations majeures mentionnées ci-dessus, Nvidia a une accusation plus importante : le regroupement de logiciels et de matériel.

Aujourd'hui, plus de 95 % des processeurs des centres de données utilisent des GPU NVIDIA. L'intégralité de la demande en matière d'IA dans le cloud repose toujours sur l'écosystème CUDA, et CUDA ne peut être utilisé qu'avec les puces NVIDIA. Les programmeurs ne veulent pas apprendre un autre langage, et CUDA est même considéré comme le fossé de NVIDIA.

Afin de renverser la « tyrannie » de Nvidia, Google, Meta et Microsoft souhaitent actuellement unir leurs forces pour participer au projet de langage open source Triton lancé par OpenAI ; Intel, AMD et Qualcomm souhaitent également utiliser Triton pour débaucher les clients de Nvidia.

Bien que Triton puisse affaiblir la part de marché de Nvidia, les analystes de Citi estiment que la part de Nvidia sur le marché des puces d'IA génératives atteindra encore environ 63 % d'ici 2030, ce qui signifie qu'elle maintiendra sa domination pendant de nombreuses années.

D'un autre côté, les géants ont lancé des défis les uns après les autres, et Nvidia est également en constante course. Après tout, Huang Renxun gardera certainement à l'esprit les « problèmes causés par l'arrogance » de son prédécesseur Cisco.

Selon le "cycle Makimoto" des semi-conducteurs - les types de puces alternent régulièrement entre usage général et personnalisé - les structures à usage général sont les plus populaires pendant une certaine période, mais après avoir atteint un certain stade, les structures spécialisées répondant à des besoins spécifiques apparaîtront directement. .

À l’heure actuelle, l’ère des structures universelles représentée par NVIDIA est en voie de subversion.

De plus, au début de cette année, Nvidia a créé une nouvelle unité commerciale pour construire des puces personnalisées pour les clients du cloud computing, des télécommunications 5G, des jeux, de l'automobile et d'autres domaines. Selon certaines informations, la nouvelle Nintendo Switch lancée cette année sera probablement équipée des puces personnalisées de Nvidia.

Mais Nvidia est-il absolument solide comme le roc ? J'ai pensé à une phrase : « Le processus est bon, mais le résultat est faux. » Pour utiliser une analogie inappropriée, si le fort pouvoir de négociation de Nvidia fait que le coût de la puissance de calcul de l'IA reste élevé pendant une longue période, empêchant ainsi les projets à grande échelle. innovation, il peut aussi y avoir des réactions négatives.