nouvelles

La puce H20 utilise le Samsung HBM3 : Nvidia jette-t-il les bases d'une « guerre des prix » nationale ?

2024-07-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Au cours des derniers mois, la volonté de Samsung HBM3 de fournir des puces NVIDIA AI a été un sujet d'intérêt pour l'industrie. Jusqu'à récemment, la rumeur disait que la mémoire Samsung HBM3 avait été approuvée par NVIDIA et pourrait être fournie aux puces NVIDIA H20 dès le mois d'août. C’est la première fois que Samsung fournit de la mémoire HBM à Nvidia, rompant ainsi la situation précédente de SK Hynix qui consistait à fournir exclusivement ses puces IA.


Bien qu'il n'ait pas été officiellement annoncé qu'elle avait réussi le test, la puce H20 utilisant Samsung HBM3 ne devrait pas présenter de risque produit sur le marché chinois et pourrait renforcer davantage la compétitivité de l'industrie grâce à l'optimisation des coûts, à la « guerre des prix » et à d'autres mesures, perturbant ainsi le marché national des puces IA. La collaboration contribuera à atténuer certaines des pertes de Nvidia dues aux sanctions et à la concurrence tout en diversifiant sa chaîne d'approvisionnement.

À mesure que le modèle et la situation de développement de l'industrie de l'IA changent, les ventes de puces NVIDIA H20 sur le marché intérieur ont fluctué, passant de l'impopularité au passage à des entreprises clientes concurrentes pour les payer, les revenus nationaux des puces NVIDIA H20 sont attendus. pour atteindre 12 milliards de dollars cette année. Cela implique des changements dans le coût des puces H20 et l'implication de Nvidia dans les tendances de développement de l'industrie, mais il existe également des défis tels que les restrictions internationales.

Poser les bases d’une « guerre des prix »

Afin de percer dans la chaîne d'approvisionnement des puces IA de Nvidia, le HBM3 de Samsung a été "retardé" depuis plusieurs mois dans ses efforts pour réussir ses tests.

Dès février de cette année, Samsung a annoncé avoir développé la première puce HBM3E à 12 couches de 36 Go du secteur et prévoyait de la produire en masse au cours du second semestre de cette année. Cependant, l’industrie a souligné qu’en raison de problèmes de chauffage et de consommation d’énergie, le Samsung HBM3 n’a pas réussi les tests de Nvidia. Jusqu'à récemment, la rumeur disait que le Samsung HBM3 avait été approuvé pour une utilisation dans la puce H20 de Nvidia spécifiquement destinée au marché chinois.

À cet égard, le Dr Zhang Jun, président de China Europe Capital et président de l'Intelligent Hardware Association, qui s'est longtemps concentré sur le domaine des puces IA, a déclaré que dans une certaine mesure, cela montre que le Samsung HBM3 a réussi les tests pertinents de Nvidia. . "Bien qu'aucune des deux parties n'ait officiellement annoncé avoir réussi le test,,maisH20 adoptés Les performances du Samsung HBM3 doivent être garanties et il n'y aura aucun risque produit sur l'immense marché chinois. Sur la voie stratégique, Nvidia envisage une plus grande rentabilité et cherche à diversifier la chaîne d'approvisionnement, plutôt que Pendu à un arbre ». "

Depuis 2022, SK Hynix fournit exclusivement du HBM3 aux puces Nvidia AI. Sur la voie technologique HBM, SK Hynix adopte la technologie de moulage par refusion par sous-remplissage (MR-MUF), qui est une technologie de processus d'emballage qui, après avoir empilé des puces semi-conductrices, un matériau de protection liquide est injecté dans l'espace et solidifié.

Samsung utilise la technologie de film non conducteur pressé thermiquement (TC-NCF) sur HBM, qui place une couche de film adhésif non conducteur entre les couches à chaque fois que les puces sont empilées. La membrane est un matériau polymère utilisé pour isoler les puces les unes des autres et protéger les points de connexion des chocs. Samsung insiste sur le fait que la technologie NCF est la « meilleure solution » pour HBM, mais elle a été critiquée à plusieurs reprises par l'industrie pour des problèmes tels que le taux de rendement.

Avec la promotion vigoureuse de HAmélioration du rendement du BM3, selon un rapport d'enquête, actuellement sonRendementIl devrait pouvoir atteindre 55 %. Parallèlement, afin d'éviter les réclamations des clients,Maintenant au milieu du processusChaque étape doit être testée, mais elle reste inférieure aux 7 de SK hynix0%-8Rendement de 0%.


Quant à savoir si NVIDIA appliquera le Samsung HBM3 à d'autres puces IA, un représentant d'une grande société nationale de puissance informatique a déclaré : « Étant donné que la puce H20 a fait des compromis dans de nombreux domaines, notamment la puissance de calcul, la capacité et la bande passante du BM et les capacités d'interconnexion entre les cartes, la question de savoir si Nvidia utilisera HBM3 sur d'autres puces IA à l'avenir dépendra principalement de l'existence ou non de besoins similaires, mais il ne sera pas utilisé sur leur dernier produit phare. "

À l’avenir, cette coopération entre Nvidia et Samsung permettra d’atténuer certaines des pertes causées par les sanctions et la concurrence. Les analystes du secteur affirment que pour maintenir une présence sur les marchés clés, la décision de Nvidia d'approuver la technologie HBM de Samsung pour le marché chinois constitue une étape clé pour naviguer dans un paysage complexe et concurrentiel. Il s'agit non seulement d'une mesure de conformité réglementaire, mais également d'un défi. à la concurrence féroce entre les entreprises chinoises.

Quant à savoir si l'utilisation du Samsung HBM3 améliorera la compétitivité des puces H20 sur le marché chinois, les représentants des sociétés de puissance informatique mentionnées ci-dessus estiment que :La conception du H20 lui-même est exclusivement destinée à un usage domestique, et de nombreux compromis ont été faits en termes de performances. Le statu quo ne sera pas modifié grâce au HBM3.Le Dr Zhang Jun a dit :Compte tenu de la situation actuelle du développement,Nvidia a besoinsur le marché chinoisfaireDe meilleurs résultats.La puce H20 en adopte troisStar HBM3 peut optimiser davantage les coûts et fournir une meilleure base pour la guerre des prix, ce qui stimulera l'A nationalIchipLa concurrence sur le marché s'intensifie.

De plus, après avoir été adopté par la puce H20, le Samsung HBM3 pourrait encore contester la domination de SK Hynix.

Bank of America a souligné que les ventes du Samsung HBM3 pourraient ne pas augmenter de manière significative à court terme en 2024-2025. Les ventes devraient s'élever respectivement à 500 millions et 2,4 milliards de dollars, soit 10 % et 34 % des ventes totales de HBM. avoir un impact plus important sur les bénéfices de SK Hynix au cours de la même période. Si la certification Samsung HBM4 réussit, cela aura un impact négatif significatif sur les bénéfices d'Hynix en 2026, mais le taux de réussite prévu actuellement est faible.

Entrez dans la direction du développement industriel

À mesure que le modèle et la situation de développement de l'industrie de l'IA changent, la situation des ventes des puces NVIDIA H20 sur le marché intérieur a fluctué.

En janvier 2024, en raison d'une réduction significative des performances de puissance de calcul, les puces Nvidia H20 se sont révélées impopulaires dans le pays. Certaines grandes sociétés Internet et fabricants de cloud ont réduit leurs commandes de puces Nvidia AI. Cependant, après l'annonce en mai d'une baisse du prix des puces H20, le marché a progressivement changé.

Début juillet, l'organisme de recherche industriel SemiAnalysis prévoyait que Nvidia devrait livrer plus d'un million de puces H20 en 2024.Selon le prix d'une seule puce, il se situe entre 12 000 et 13 000 dollars américains.contribueraPlus de 12 milliards de dollars de revenus.etdernier exerciceNvidiaLe chiffre d'affaires en Chine s'élevait à 10,3 milliards de dollars, ce qui signifie qu'il faut compter uniquement sur H.On s'attend à ce que 20 puces dépassent les revenus de l'année précédente.

Dylan Patel, analyste en chef chez SemiAnalysis, estime que même si la puce H20 est plus faible sur le papier que les puces nationales des fabricants chinois, avec les avantages de la mémoire HBM, cette puce présente néanmoins certains avantages dans l'utilisation réelle.


Les données montrent que la puce Nvidia H20 dispose de 96 Go de mémoire, ce qui est non seulement plus élevé que les générations précédentes A800 (80 Go) et H800 (40 Go) spécialement conçues pour le marché chinois, mais également nettement supérieur aux 64 Go de mémoire d'une importante puce IA nationale. concurrents.

Étant donné que la marge bénéficiaire de Samsung HBM est inférieure à celle de SK Hynix, le passage à la mémoire Samsung HBM3 pour les puces H20 contribuera à réduire les coûts. Le Dr Zhang Jun a déclaré : «Découplage technologique sino-américain,Yingwei Les clients nationaux de Da sont sensibles aux prix et la Chine reste l'une de ses principales sources de revenus.Par conséquent, Nvidiasera ensuite adopté en ChineVersion castrée H20 puces testent la possibilité d'une guerre des prix, complétées parCLes avantages écologiques de l'UDA se traduisent par une forte compétitivité, réduisant ainsi l'espace des concurrents et permettant aux entreprises nationales de payer la facture.

D'un autre côté, lorsqu'elle est appliquée à de grands modèles, la configuration de NVIDIA H20 est plus adaptée à l'inférence qu'à la formation de modèles, ce qui va également à l'encontre de la tendance actuelle de développement de l'industrie nationale des grands modèles.

Un initié de l’industrie a souligné : «Au cours des derniers mois, le marché national des grands modèles a connu de nombreux changements. La demande de puissance de calcul passe de la formation de modèles à grande échelle à la demande d'inférence. Dans le même temps, les entreprises ont une demande croissante de déploiement privatisé d'inférence. les capacités des modèles open source continuent de s'améliorer, de plus en plus. Tendance à construire de petits modèles pour accomplir des tâches spécifiques.« La demande de puissance de calcul à grande échelle s'est affaiblie et la demande de petits clusters a augmenté. Cette tendance a provoqué un réchauffement du marché de l'inférence, ce qui contribuera à la croissance des ventes de puces Nvidia H20.

Cependant, tout le monde dans l’industrie n’est pas très optimiste quant aux perspectives de vente des puces H20. Les représentants des sociétés de puissance informatique mentionnées ci-dessus estiment que Nvidia H20 est l'une des rares puces pouvant être vendues de manière conforme en Chine depuis l'introduction du « Chip Act ». Cependant, en raison des limitations de performances, il est irréaliste que le H20 atteigne ce niveau. 12 milliards de dollars de ventes intérieures cette année. Il est préférable de le confirmer sur la base du rapport financier de Nvidia.

Bien que la puce H20 présente encore certains avantages en termes de polyvalence et de stabilité, en raison de la diminution des performances de puissance de calcul, une partie du marché a été laissée aux puces nationales. C'est le bon moment pour développer des puces d'IA nationales."Il a dit.

De plus, les puces H20 sont encore confrontées à certaines incertitudes géopolitiques internationales. Récemment, un rapport fourni aux clients par Jefferies Securities a montré que le gouvernement américain envisageait de nouvelles restrictions commerciales, qui pourraient empêcher Nvidia de vendre sa puce H20 AI spécialement lancée pour le marché chinois. Si la restriction est formellement mise en œuvre, Nvidia pourrait perdre environ 12 milliards de dollars de revenus.