nouvelles

Le géant des puces a encore bondi, qui est derrière cela ?

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Le 30 juillet, le cours de l'action Nvidia a chuté de 7 %, ce qui représente la plus forte baisse de l'entreprise en trois mois. Sa valeur marchande s'est évaporée du jour au lendemain, tombant à 2,55 billions de dollars.

Du 10 au 30 juillet, le cours de l’action NVIDIA s’est effondré de 23 %, passant de 134,91 $ US par action à 103,73 $ US. Auparavant, la dynamique de hausse continue de l'entreprise semblait inciter les investisseurs à ignorer les risques.

Au cours des deux dernières semaines, les investisseurs ont retiré de l'argent des grandes valeurs technologiques comme Nvidia, craignant de plus en plus que les grandes entreprises aient du mal à générer des retours sur leurs dépenses en IA.

Les analystes techniques ont souligné qu'un tel changement laisserait la possibilité au cours de l'action de Nvidia de baisser davantage.

01

La faute à Apple ?

La forte baisse du cours de l'action Nvidia pourrait être liée à Apple.

Le 29 juillet, Apple a déclaré dans un document technique que deux modèles de son système d'intelligence artificielle (IA) Apple Intelligence avaient été formés sur des puces cloud conçues par Google. Apple a détaillé le traitement tensoriel utilisé pour la formation du processeur. En outre, Apple a également publié une version préliminaire d'Apple Intelligence pour certains appareils.

Apple ne fait aucune mention de Google ou de Nvidia dans son article de 47 pages, mais note que ses serveurs Apple Foundation Model (AFM) et AFM sont formés sur des clusters TPU dans le cloud. Le document indique que le système permet à Apple de former de manière efficace et évolutive des modèles AFM, y compris des modèles AFM sur appareil, sur serveur AFM et plus grands.

Apple affirme que l'AFM-on-device est formé sur une seule tranche de 2048 puces TPU v5p, le TPU le plus avancé disponible en décembre 2023. Le serveur AFM est formé sur 8192 puces TPU v4, configurées pour fonctionner ensemble en 8 tranches sur le réseau du centre de données.

Google déploie depuis longtemps du TPU en grande quantité dans les centres de données pour accélérer la formation et l'inférence des modèles d'IA. De plus, non seulement pour son propre usage, Google considère également le TPU comme un produit.Cloud computingLes services sont fournis à des tiers pour être utilisés, les transformant en produits à vendre.

Le dernier TPU de Google coûte moins de 2 dollars de l'heure et la puce nécessite une précommande trois ans à l'avance pour pouvoir être utilisée. Google a lancé pour la première fois des TPU pour les charges de travail internes en 2015 et les a mis à la disposition du public en 2017. Il s’agit désormais des puces personnalisées les plus sophistiquées conçues pour l’intelligence artificielle.

Google reste néanmoins l'un des principaux clients de Nvidia et vend l'accès à la technologie Nvidia sur sa plateforme cloud.

Apple a déjà déclaré que l'inférence, qui consiste à utiliser un modèle d'IA pré-entraîné et à l'exécuter pour générer du contenu ou faire des prédictions, serait effectuée en partie sur des puces dans les propres centres de données d'Apple.

Apple a publié des documents techniques pertinents lors de la WWDC 2024 en juin, montrant qu'en plus d'utiliser du matériel tel que les propres processeurs d'Apple et son propre cadre logiciel dans Apple Intelligence, les ingénieurs utilisaient également leurs propres GPU combinés avec les TPU de Google pour accélérer la formation des modèles d'intelligence artificielle.

Nvidia est confrontée à une pression concurrentielle croissante. En prenant Google comme exemple, le géant de la technologie continue d'étendre sa part de marché grâce à des puces d'IA auto-développées. Les données de TechInsights montrent que sur le marché des accélérateurs de centres de données en 2023, les livraisons de Google TPU atteindront 2 millions d'unités. Bien que légèrement inférieures aux 3,8 millions d'unités de NVIDIA, elles se classent fermement au troisième rang du secteur et présentent une forte dynamique de croissance. . Dans le même temps, les géants de la technologie tels que Microsoft réduisent progressivement leur dépendance à l’égard de Nvidia et se tournent vers des puces d’autres marques concurrentes.

02

Les GPU sont trop chers

Outre le risque d’une dépendance unique, le prix élevé des GPU Nvidia fait également fuir de nombreux constructeurs.

Les rapports montrent que les serveurs IA équipés du GPU Blackwell de nouvelle génération de Nvidia coûtent entre 2 et 3 millions de dollars chacun.

Nvidia a lancé deux ensembles de conceptions de référence basées sur l'architecture Blackwell. Parmi eux, le NVL36 est équipé de 36 cartes accélératrices GPU B200. Le prix devrait être de 2 millions de dollars. Il était auparavant prévu à 1,8 million de dollars. le prix a augmenté. NVL72 a doublé de taille et est équipé de 72 cartes accélératrices B200. Le prix de départ devrait être de 3 millions de dollars.

NVIDIA prévoit qu'en 2025, les livraisons de serveurs B200 devraient atteindre 60 000 à 70 000 unités, pour un prix total compris entre 120 et 210 milliards de dollars.

Actuellement, AWS, Dell, Google, Meta, Microsoft, etc. sont intéressés par l'achat de serveurs B200, et l'ampleur dépasse les attentes.

Les serveurs IA sont principalement composés de CPU, GPU, FPGA et autres processeurs, qui sont utilisés pour gérer un grand nombre de tâches informatiques. Par rapport aux serveurs traditionnels, les serveurs IA nécessitent généralement un matériel plus performant pour répondre aux besoins de traitement de données à grande échelle. et des calculs complexes. En raison du prix plus élevé de ces matériels, ils représentent la plus grande part du coût des serveurs d’IA. Parmi eux, le GPU représente le coût le plus élevé parmi les différents processeurs.

Dans le processus de formation et d'inférence de l'IA, le GPU est généralement le matériel le plus cher, car le GPU dispose d'une forte puissance de calcul et de capacités de traitement parallèle, ce qui peut accélérer le processus de formation et d'inférence du modèle d'IA. La plupart des serveurs IA sont équipés de plusieurs GPU pour répondre aux besoins du calcul haute performance.

Étant donné que le GPU dispose d’une puissance de calcul puissante, sa consommation d’énergie est également élevée. Afin de répondre aux besoins informatiques des modèles d'IA, plusieurs GPU doivent généralement être configurés, ce qui augmentera encore la consommation électrique du serveur. Une consommation d'énergie élevée signifie que le serveur nécessite une alimentation électrique plus importante lors de son fonctionnement et entraîne des factures d'électricité plus élevées.

Par rapport aux processeurs, les GPU ont une architecture plus complexe et plus de composants, ce qui signifie que la maintenance du GPU est plus fastidieuse et complexe et nécessite davantage de techniciens professionnels pour la maintenance et la gestion. De plus, en raison de la consommation électrique élevée du GPU, ses besoins en refroidissement sont également plus élevés, ce qui nécessite des équipements de refroidissement et des coûts de maintenance supplémentaires.

Avec le développement rapide de la technologie IA, les performances du GPU s’améliorent également constamment. Afin de rester compétitives, de nombreuses entreprises doivent fréquemment acheter de nouvelles versions de GPU, ce qui augmentera le coût des serveurs.

Avec la promotion des applications d'IA, de plus en plus d'entreprises commencent à utiliser des serveurs d'IA, ce qui entraîne une demande croissante de GPU. Lorsque l'offre dépasse la demande, le prix des GPU augmente également.

03

Pression des concurrents

Les concurrents de NVIDIA se préparent tous, et parmi eux, AMD, le plus accrocheur, a réalisé de bonnes performances récemment.

Le 30 juillet, AMD a publié son rapport financier du deuxième trimestre 2024. Le bénéfice net a bondi de 881 % sur un an, les revenus de l'activité des centres de données ont doublé et ont fait perdre beaucoup d'activité à Nvidia.

Le chiffre d'affaires total d'AMD pour ce trimestre a atteint 5,835 milliards de dollars, ce qui a non seulement dépassé les attentes précédentes de 5,72 milliards de dollars, mais a également atteint une croissance de 9 % sur un an et de 7 % sur un mois. Le bénéfice net a atteint 265 millions de dollars, soit une augmentation d'une année sur l'autre de 881 % et une augmentation d'un mois sur l'autre de 115 %.

Les ventes du MI300, une puce GPU utilisée dans les centres de données, ont dépassé le milliard de dollars américains en un seul trimestre, entraînant une augmentation significative des revenus de la division des centres de données.

La série MI300 est un GPU AI lancé par AMD fin 2023, comprenant le MI300X, ainsi qu'un cœur de processeur intégré et un accélérateur GPU MI300A. Parmi eux, le MI300X se compare au H100 de Nvidia. Selon AMD, les performances du MI300X sont comparables à celles du NVIDIA H100 lorsqu'il est utilisé pour la formation en IA. En termes de raisonnement, ses performances dépassent celles des produits concurrents. En prenant comme exemple un seul serveur composé de 8 GPU, lors de l'exécution du modèle BLOOM avec 176 milliards de paramètres et du modèle Llama2 avec 70 milliards de paramètres, les performances de la plateforme MI300X sont 1,4 à 1,6 fois supérieures à celles de la plateforme H100.

Le PDG d'AMD, Su Zifeng, a déclaré que les ventes de puces IA de la société sont "plus élevées que prévu" et que Microsoft utilise de plus en plus les puces MI300 comme support de puissance de calcul pour GPT-4 Turbo et pour prendre en charge Word, Teams, etc. de Microsoft. Hugging Face est l'un des premiers clients à adopter le nouveau cloud Microsoft Azure, qui permet aux entreprises et aux clients IA de déployer des centaines de milliers de modèles sur le MI300 en un seul clic.

En juin de cette année, AMD a annoncé une feuille de route d'itération, prévoyant de lancer le MI325X au quatrième trimestre de cette année et de lancer les séries MI350 et MI400 au cours des deux prochaines années. Parmi eux, les M1300X et MI325X adopteront le CDNA3. Architecture, et le M1350 adoptera la structure CDNA4 MI400 adoptera l'architecture CDNA de nouvelle génération. AMD lancera de nouvelles séries de produits chaque année. Du point de vue de l'industrie, cette vitesse est conforme au plan dévoilé par Nvidia.

En outre, Su Zifeng a déclaré que la demande de raisonnement en IA sera plus importante que la formation. AI PC est une partie très importante de la catégorie PC, et le marché des PC constitue une bonne opportunité de croissance des revenus pour l'activité d'AMD.

Cette année, AMD accélère son déploiement d'IA grâce à des investissements. En juillet, la société a dépensé 665 millions de dollars pour acquérir Silo AI, le plus grand laboratoire d'intelligence artificielle d'Europe, qui fournit des solutions de bout en bout basées sur l'IA. Cette acquisition est considérée comme une étape importante pour rattraper AMD par Nvidia.

Su Zifeng a déclaré qu'en plus d'acquérir Silo AI, AMD a investi plus de 125 millions de dollars américains dans plus d'une douzaine de sociétés d'intelligence artificielle au cours des 12 derniers mois afin d'étendre l'écosystème AMD et de maintenir la position de leader des plates-formes informatiques AMD. AMD continuera à investir dans les logiciels, a-t-elle déclaré, ce qui est l'une des raisons pour lesquelles elle a investi dans Silo AI.

Basé sur un matériel GPU de qualité, des logiciels et un écosystème en développement, AMD rivalise de la même manière que Nvidia a réussi.

04

NVIDIA a aussi des faiblesses

Pour rivaliser avec NVIDIA, la meilleure stratégie consiste à exploiter vos forces et à éviter vos faiblesses, c'est-à-dire à utiliser vos propres forces pour attaquer les faiblesses de NVIDIA.

Bien que les capacités de traitement parallèle du GPU soient très fortes, c'est la raison fondamentale pour laquelle il est bon pour la formation en IA. Mais lorsque les données sont déplacées, le GPU ne les traite pas aussi rapidement. Lorsque de grands modèles d’IA sont exécutés, ils nécessitent souvent un grand nombre de GPU et un grand nombre de puces de mémoire, connectées les unes aux autres. Plus les données circulent rapidement entre le GPU et la mémoire, meilleures sont les performances. Lors de la formation de grands modèles d’IA, certains cœurs GPU restent inactifs, attendant des données près de la moitié du temps.

Si un grand nombre de cœurs de processeur et une mémoire massive peuvent être combinés pour former un calcul en mémoire, la complexité des connexions entre plusieurs puces peut être considérablement réduite et la vitesse de transmission des données peut être considérablement améliorée. Un grand nombre de cœurs de processeur sont connectés ensemble au sein de la puce et peuvent fonctionner des centaines de fois plus rapidement qu’une combinaison de GPU indépendants. Actuellement, plusieurs startups font de telles choses et le développement mérite l'attention.

De plus, vous devez vous préparer à une guerre prolongée dans l'écosystème logiciel et matériel afin de faire face à NVIDIA. À cet égard, vous avez besoin d'une solide expérience en ressources pour lutter pour votre vie. AMD et Intel le font.

De plus, outre la puce elle-même, des efforts supplémentaires peuvent être déployés en matière d'interconnexion puce à puce. NVIDIA n'est pas leader dans cet aspect, contrairement à Broadcom.

Broadcom résout le problème d'interconnexion entre les puces et ne concurrence pas directement les GPU Nvidia. Bien que Nvidia dispose également de sa propre technologie d'interconnexion puce à puce, du point de vue de l'ensemble du secteur, la technologie et les produits de Broadcom sont supérieurs. Parmi les huit plus grands systèmes de serveurs d'IA au monde, 7 ont déployé une infrastructure Ethernet prise en charge par la technologie Broadcom. On s’attend à ce que d’ici 2025, tous les systèmes de serveurs d’IA à très grande échelle soient alimentés par Ethernet.

Broadcom est le meilleur pour résoudre les problèmes de bande passante de communication. Sur le marché mondial des SerDes à 50 Go/s, Broadcom occupe 76 % des parts. Son interface SerDes convertit les données parallèles à faible vitesse en données série à haut débit, puis les reconvertit en données parallèles. l'extrémité réceptrice. Grâce à de telles opérations, les données peuvent être transférées d'un TPU à un autre à grande vitesse, améliorant considérablement l'efficacité de la transmission.

Bénéficiant également de la croissance de l'IA, le chiffre d'affaires des produits Netcom de Broadcom connaît une croissance annuelle de 40 %. Le rapport financier de la société montre qu'au cours du deuxième trimestre fiscal en mai de cette année, les revenus de l'IA ont augmenté de 280 % sur un an pour atteindre 3,1 milliards de dollars, et ce chiffre devrait dépasser 11 milliards de dollars avant la fin de cet exercice. .

05

Une grosse chute suivie d'une nouvelle forte hausse

Un certain nombre de concurrents exercent une pression sur Nvidia, ce qui explique en grande partie la chute du cours de l'action de l'entreprise. Cependant, le marché évolue si rapidement que les gens ne peuvent pas réagir à temps.

Dans la soirée du 31 juillet, le cours de l'action Nvidia a soudainement augmenté, avec une augmentation de plus de 14 % à un moment donné, et sa valeur marchande a augmenté de 326,9 milliards de dollars en une seule journée.

Nvidia est devenue la première action à connaître une augmentation de capitalisation boursière en une seule journée de plus de 300 milliards de dollars. Actuellement, NVIDIA occupe les trois premiers classements dans la liste des augmentations de valeur boursière sur un jour des actions américaines. Les 22 février et 23 mai de cette année, la valeur boursière sur un jour de NVIDIA a augmenté respectivement de 276,6 milliards de dollars et de 217,7 milliards de dollars.

Morgan Stanley a publié un rapport de recherche indiquant que, compte tenu du fait que Nvidia a été vendu récemment par le marché, bien que les raisons spécifiques soient inconnues, elle estime qu'elle peut offrir de bonnes opportunités d'entrée sur le marché aux investisseurs intéressés. Elle l'a donc réinscrite parmi les meilleurs. actions et réalisé des bénéfices. Les prévisions et le cours cible n'ont pas changé, avec une note de « surpondération » et un cours cible de 144 $.

En seulement deux jours, le cours de l'action de Nvidia a fortement chuté, puis a fortement augmenté. Cela peut être lié à l'approvisionnement restreint de Blackwell et à la difficulté de livrer tous les produits à temps.

Morgan Stanley a déclaré que les produits Blackwell ont suscité un fort intérêt sur le marché, en particulier l'amélioration significative de ses performances de raisonnement, qui stimule encore davantage le désir d'achat des clients.

Cependant, il y a des nouvelles dans l'industrie selon lesquelles la puce GPU Blackwell pourrait être retardée, ou les produits serveurs équipés de la puce pourraient être retardés.

Bien que les performances des technologies et des produits de nombreux concurrents s'améliorent de plus en plus, ce qui exerce une pression sur Nvidia, à l'heure actuelle et à court et moyen terme, les produits GPU de la société restent la principale force sur le marché des serveurs d'IA, et dans l'ensemble l’offre dépasse la demande. Alors que les GPU Blackwell que de nombreux clients attendent avec impatience sont sur le point d'être expédiés, la nouvelle du retard de livraison va certainement aiguiser l'appétit du marché et contribuer à la hausse du cours de l'action.