nouvelles

Le géant de la Silicon Valley fabrique un noyau, le « ticket » s'élève à 2 milliards de dollars

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

« Chip Matters » est le plan de recherche de Tencent Technology sur l'industrie des semi-conducteurs. Ce numéro se concentre sur la logique et les défis des entreprises technologiques développant des puces d'IA auto-développées.

Auteur Xinchao IC A Niu

Editeur Su Yang

"Nos réserves de puces NVIDIA ne peuvent plus suivre.", a déclaré franchement le PDG d'une grande entreprise de modèles d'IA.

Affecté par le renforcement des contrôles à l'exportation, il a été difficile d'acheter des puces chinoises en édition spéciale telles que l'A800 et le H800. Au lieu de cela, elles ont été remplacées par la version conforme du H20. Les performances de cette dernière ont considérablement diminué et l'extérieur. le monde l’appelle également une version castrée. Malgré cela, le H20 pourrait encore être confronté à des contrôles à l'exportation lors de la mise à jour des dispositions sur le contrôle des exportations du Département américain du Commerce en octobre de cette année.

Le Financial Times a cité deux sources anonymes proches de Nvidia affirmant que plusieurs sociétés chinoises avaient passé des commandes de puces pour un total de 5 milliards de dollars à Nvidia. Dans le même temps, certaines puces nationales sont entrées dans le champ de vision des grands fabricants de technologies, mais en raison du processus, de l'interconnexion et d'autres raisons, il existe encore des lacunes en termes de performances et des défis d'approvisionnement.

Dans ce contexte, de nombreuses grandes entreprises ont commencé leurs propres recherches et ont successivement développé des puces actuelles TSMC, couvrant plusieurs nœuds de processus tels que 5 nm et 7 nm, pour assurer la sécurité de l'approvisionnement de leurs propres puces d'IA.

Les contrôles à l'exportation sont comme une arme à double tranchant, bloquant la puissance de calcul et limitant la croissance de NVIDIA. Surtout dans le contexte de l'auto-enquête des clients, les revenus de NVIDIA en Chine continentale ont commencé à montrer des variations. Au cours de l'exercice 2022, les clients chinois ont contribué à 25 % des revenus du marché de Nvidia, mais au cours de l'exercice 2024, cette proportion est tombée à un chiffre.

Pour Nvidia, le gâteau en Chine continentale se rétrécit et la Silicon Valley évolue également. Les principaux clients tels que Google, Apple, Meta, Amazon et Tesla tentent tous d'aller dans les deux sens, en utilisant les puces de Nvidia tout en effectuant leurs propres recherches.

Quelle est la logique derrière les puces auto-développées par les principaux fabricants chinois et américains ? Les entreprises technologiques qui affluent en mer Rouge peuvent-elles réussir à atterrir avec des puces auto-développées ?

01 Les devises fortes ne semblent en sécurité que lorsque vous les tenez dans votre main

Dans l'engouement actuel pour les grands modèles et l'IA générative, les puces de puissance de calcul sont la monnaie forte entre les mains des entreprises technologiques. CoreChao IC a suivi cette folie et cette tension liées à la « saisie de la puissance de calcul » dans l'article « Les flux H100 à prix exorbitant ». au marché noir".

Tenir les cartes entre vos propres mains est la raison fondamentale pour laquelle les grands fabricants développent leurs propres puces.

Selon Chen Wei, président de Qianxin Technology, les grands fabricants ont trois atouts : un approvisionnement garanti, une réduction des coûts et des enchères. De manière générale, il s'agit d'une sorte d'autonomie des puces.

Pour de nombreux grands fabricants chinois, en particulier les majors de l'Internet et de l'intelligence artificielle, ils sont confrontés à tout moment au risque de coupures d'approvisionnement en puissance de calcul dans le contexte de contrôles avancés des exportations de puces. L'auto-recherche est la garantie de la sécurité de la puissance de calcul. Cependant, les puces développées par chaque entreprise sont principalement destinées à un usage interne et les spécifications sont personnalisées pour leurs propres produits et ne sont pas des produits à usage général.

Pour les géants qui « brûlent de l’argent » pour accumuler de la puissance de calcul, l’auto-recherche est un moyen de réduire les coûts. "Si le volume est suffisamment important et la demande suffisamment importante, envisagez alors l'auto-recherche, sinon cela ne permettra peut-être pas de réellement réduire les coûts", a déclaré Wu Zihao, un ancien expert en construction d'usines de TSMC.

En 2021, Musk a lancé le supercalculateur Dojo construit avec la puce d’IA D1 auto-développée pour former les pilotes de Tesla.Pilote automatique système. Selon le dernier rapport de recherche de Morgan Stanley, ce système permet d'économiser au total 6,5 milliards de dollars par rapport à l'A100 de Nvidia.

Avec l'augmentation de la demande en IA, la dépendance de Cloud Factory à l'égard du GPU dépasse de loin celle du CPU. La demande de puces NVIDIA est folle. L'auto-recherche est également une puce d'appel d'offres pour que Cloud Factory remporte les commandes de NVIDIA.

Une personne proche d'Amazon a déclaré à Xinchao IC que les cartes NVIDIA ne sont pas bon marché si les principaux fabricants de DSA disposent de puces spéciales développées par eux-mêmes, ils pourront non seulement réduire complètement le coût moyen des puces et des brevets, mais également. pour mieux rivaliser avec NVIDIA. Bon pouvoir de négociation.

Les informations publiques montrent qu'Amazon conçoit non seulement ses propres serveurs informatiques, serveurs de stockage et routeurs, mais développe également sa propre puce de serveur Graviton.

AWS lance le processeur universel Graviton4

Selon The Information, Amazon continue de baisser ses prix en remplaçant Nvidia par Graviton. Les clients qui louent des serveurs Graviton économisent directement 10 à 40 % sur leurs coûts informatiques. Du point de vue de Nvidia, si vous souhaitez conserver Amazon, le plus grand client d'usine de cloud au monde, vous devez vous asseoir à la table de poker et négocier un meilleur prix.

« ce type de concession de bénéfices peut parfois ne pas être entièrement reflété dans les réductions, mais peut être reflété dans la répartition ».

Selon les initiés mentionnés ci-dessus, en tant que premier fabricant mondial, si Nvidia accorde directement une remise très intuitive sur le prix unitaire, cela aura un impact négatif important sur le système de tarification des produits et ne favorisera pas la protection des prix des produits. , ils peuvent mettre à niveau l'équipement d'interconnexion, mettre à niveau le stockage SSD, ajouter plus de configurations de rack, etc. pour offrir des réductions déguisées aux gros clients.

Il existe également une méthode préférentielle plus courante : l'inclinaison de la capacité et l'octroi de droits pour la première fois.

Grâce à l'avantage du premier arrivé, Amazon peut fixer le prix de la machine complète plus haut à court terme et « économiser » (remise) de l'argent sur la prime de la machine complète et la circulation des chaînes d'outils logiciels de support.

En plus d'assurer l'approvisionnement, de réduire les coûts et les appels d'offres, certains grands fabricants souhaitent assurer leur propre compétitivité en développant leurs propres puces.

Chen Jing, vice-président de la Fengyun Society, a mentionné que les puces vendues par NVIDIA sont adaptées à l'informatique générale et disposent de fonctions complètes, mais sont également relativement coûteuses. Cependant, certains clients n'ont besoin que de fonctions spécifiques pour améliorer certains de leurs propres avantages. , ils envisageront l’auto-apprentissage.

"Je n'ai besoin que de faire de l'inférence sur un grand modèle et je n'ai pas besoin de fonctions de formation. Dans ce cas, je peux concevoir une puce dédiée avec des fonctions simples, mais une vitesse plus rapide et un prix moins cher", a déclaré Chen Jing. "Les grandes entreprises comme Google et Microsoft ont leurs propres spécifications logicielles et matérielles. Comment contrôler le bruit et quel niveau de consommation d'énergie doit être atteint. NVIDIA pourrait ne pas être en mesure de répondre aux normes. Il sera plus pratique de concevoir par vous-même. "

Parmi les géants de la Silicon Valley, Google est très préoccupé par la différenciation de sa propre architecture, de son coût et de sa technologie de puce. Il développe sa propre unité de traitement tenseur (TPU) d'IA depuis 2016 pour obtenir une meilleure rentabilité dans la formation à grande et moyenne échelle. et l'inférence et la performance pour garantir leurCloud computingLes produits ont un meilleur caractère unique et une meilleure reconnaissance.

Google lance le TPU « Trillium » de sixième génération

Selon les données relatives au TPU de 4e génération divulguées par Google, par rapport aux systèmes de même taille, le TPU v4 est 1,7 fois plus efficace que le NVIDIA A100 et 1,9 fois plus économe en énergie.

En plus des points ci-dessus, d'un point de vue écologique, il existe une raison plus profonde : briser le monopole de CUDA. En tant que langage de programmation développé par NVIDIA, CUDA est la principale raison pour laquelle les prix des GPU ont été « montés en flèche » et les clients doivent l'accepter.

Si l'usine cloud ne fait pas d'auto-recherche, même si elle peut obtenir un bon prix de commande, plus de 95 % des processeurs du centre de données utiliseront toujours des GPU NVIDIA, et l'ensemble de la demande d'IA cloud reposera toujours sur CUDA. écosystème. En dernière analyse, le sort de Nvidia est entre ses mains.

À mesure que Cloud Factory équipe les centres de données avec des puces auto-développées et développe de nombreuses fonctions sous-jacentes de middleware et de traduction binaire pour aider les clients à migrer vers son propre écosystème, il aura un degré plus élevé de compatibilité équivalente avec les programmes CUDA et sa dépendance exclusive diminuera progressivement.

"C'est ce que font toutes les usines de cloud. Même si le processeur représente moins de 4% de l'ensemble du centre de données, elles doivent quand même insister pour le faire.", A déclaré la personne proche du dossier.

02 S’il y a des gens et de l’argent, finissons-en

"Il y a des gens, de l'argent, des choses, et en même temps, il y a encore un potentiel d'avenir, donc on peut y mettre un terme."

 

Yu Hao, vice-président de Legend Holdings, estime que la logique selon laquelle les grands fabricants effectuent eux-mêmes des recherches sur les puces est relativement fluide. Ses clients sont là, ce qui constitue un net avantage.

« Les « personnes » doivent être des personnes « talentueuses » ayant une expérience pratique dans tout le cycle de vie des puces, et « l'argent » doit être un « argent vivant » qui continue de contribuer aux revenus basés sur le secteur de la puissance de calcul. Les fabricants peuvent s'appuyer sur la boucle fermée de l'activité IA pour faire le point sur les perspectives d'avenir. Avec la croissance attendue du marché, la demande de puissance de calcul a été quantifiée et la coordination stratégique des personnes et de l'argent a été achevée et les puces auto-développées. sont venus naturellement », a déclaré Yu Hao à Xinchao IC.

Cependant, le prix d'entrée pour s'asseoir à la table de poker auto-développée commence à au moins 2 milliards de dollars américains. Au début de cette année,OpenAI Le PDG Sam Altman a même fait état d'un projet fou visant à lever 7 000 milliards de dollars pour fabriquer des puces, bien que la personne impliquée ait ensuite nié la rumeur.

Selon une personne proche du dossier, « chaque entreprise qui réitère ses produits de première génération coûtera au moins 2 milliards de dollars pour augmenter la production de masse si elle est calculée sur la base du nœud intermédiaire de 7 nanomètres ».

De plus, les puces auto-développées sont principalement destinées à un usage personnel et ne nécessitent pas de prendre en compte la difficulté de construire un écosystème. Ran Ciyuan a cité un partenaire de Sky Eagle Capital disant : « La conception architecturale des puces à usage spécial n'a généralement pas besoin d'être particulièrement compliquée, les caractéristiques d'application sont également très claires et le développement est relativement rapide. entreprises, leur développement de puces à usage spécial repose sur un scénario clair, vous n’avez pas besoin de dépenser trop d’argent et de temps pour développer l’écosystème logiciel, et la propriété intellectuelle du processus est également mature.

La théorie fonctionne, mais comment pouvons-nous faire en sorte que l’auto-apprentissage fonctionne avec succès ?

Selon les connaissances de l'industrie, l'auto-recherche sur les puces peut être divisée en parties frontale et back-end. Le front-end est la conception logique, qui représente les fonctions les plus élémentaires de la puce. Le back-end est la conception physique, qui est l'entité qui implémente toutes les fonctions dans le circuit et les enregistre.

Diagramme schématique du processus de puce auto-développé

De manière générale, les seules conceptions que les petites équipes peuvent réaliser de manière indépendante sont le front-end et le back-end de la puce logique et la chaîne d'outils logiciels elle-même, mais malgré cela, de nombreuses conceptions ne comportent que 5 % de circuits dédiés auto-développés.

La personne susmentionnée proche du dossier a déclaré : « Chacun sur le marché fait 1/5 par lui-même et demande aux autres de faire les 4/5 restants. Il s'agit d'un écosystème assez mature. Quant à la manière d'obtenir ces adresses IP de circuit, certains ont réussi. de mauvais canaux, et certains passent par de mauvais canaux conformes, tels que les licences de fabricants de conception IP comme ARM.

Pour de nombreuses équipes, elles ont en fait la capacité de concevoir indépendamment certains circuits, mais comme elles doivent surmonter la propriété intellectuelle qui bénéficie d'une protection de propriété intellectuelle très stricte, même si elles sont créées, elles sont susceptibles de violer l'architecture informatique et ne peuvent pas être utilisées, ou même enfreindre la propriété intellectuelle d'autrui , c'est aussi le premier obstacle que rencontrent les fabricants nationaux lorsqu'ils développent leurs propres puces.

Il y a aussi certaines choses que l'équipe d'auto-recherche ne peut pas concevoir, comme certaines structures très difficiles de NOC (Network on Chip).

La conception n'est qu'une partie des puces auto-développées. Elle inclut également la sortie de bande, la production de masse, etc. Vous pouvez rencontrer divers problèmes au cours du processus, notamment une défaillance de sortie de bande, une capacité de production de masse, etc., mais ceux-ci ne sont pas auto-développés. -développé. À la fin, il doit également résoudre une série de problèmes de soutien, notamment la manière de mettre en œuvre l'intégration de la chaîne industrielle.

Du point de vue du monde extérieur, une puce logique dédiée mesure environ 500 mm², et un GPU à usage général peut mesurer 800 mm², contenant des dizaines de milliards, voire des centaines de milliards de transistors. Certaines de ses fonctions sont utilisées pour les calculs vectoriels et peuvent être. considéré comme un processeur vectoriel. Tout cela, mais pour être implémenté dans des scénarios d'application, il nécessite également la conception et la mise en œuvre du stockage, le contrôle de la consommation d'énergie, l'alimentation électrique et les conditions globales de fonctionnement de la machine. Il nécessite également une interconnexion et une mise en réseau pour former un cluster plus grand.

De plus, l'objectif ultime des produits est de créer une différenciation, ce qui doit être fait sur l'interface périphérique et sur l'ensemble de la machine, et différents SKU apparaîtront généralement du point de vue du stockage, de la consommation d'énergie et de la superficie en pieds carrés. toute la machine.

En d'autres termes, en plus des problèmes d'intégration de la chaîne industrielle et de propriété intellectuelle, les puces auto-développées doivent également prendre en compte les SKU des produits. Il ne suffit pas de concevoir une puce logique.

Un haut responsable qui a souhaité rester anonyme a déclaré à Xinchao IC : « De nombreuses entreprises nationales n'ont pas de capacités de conception de produits, après avoir fabriqué des puces, elles doivent se rendre à divers endroits pour les tester. Leurs ingénieurs et leurs directeurs commerciaux sont basés à Inspur, Sugon, etc. . Les centres de données des principaux fabricants espèrent que l'autre partie pourra se laisser un socket sur la nouvelle carte mère du serveur. Si le test réussit, ils achèteront en effet très peu de succès.

La production de masse constitue un autre défi en plus de la conception, de l'enregistrement et de la production. Les petites équipes doivent se demander si elles peuvent réserver une capacité de production ?

"La production est toujours un chiffre très critique pour les usines Fab." Wu Zihao, un ancien expert en construction d'usines TSMC, a déclaré que les fabricants doivent comprendre dans quel lien ils entrent et quelle quantité de production ils promettent. C'est le point le plus critique pour impressionner Fab.

Les fabricants de premier rang ont essentiellement réservé la dernière capacité de production des usines Fab au cours de la phase DTCO (Design Technology Collaborative Optimization). Actuellement, les meilleures équipes de conception du monde, telles qu'ARM, ont un grand nombre de personnes stationnées à TSMC chaque année, y compris. de nombreux fabricants d'EDA.

DTC détermine les indicateurs de performances des processeurs de nouvelle génération sur des nœuds spécifiques, tels que combien d'argent peut être économisé et combien de performances peuvent être améliorées grâce à une conception de configuration raisonnable au niveau du nœud 3 nm.

"NVIDIA et Apple sont toujours prêts à tester les processus de fabrication les plus avancés. Tant que TSMC propose un processus de fabrication de pointe, même si le rendement est inconnu et le gain de performances est inconnu, c'est-à-dire avant que le modèle économique puisse être calculée, ils réserveront déjà une capacité de production. La conception collaborative de DTCO avec les usines Fab est la raison fondamentale pour laquelle les fabricants de premier rang obtiennent une capacité de production », a déclaré Wu Zihao.

S'il n'y a pas de conception collaborative dès le début, la Fab factory et l'équipe Fabless, Party A et Party B, devront inverser les rôles. Car personne n'ose l'utiliser, la Fab factory ne peut que promouvoir son nouveau procédé petit à petit. , en commençant par le processus le moins risqué.

Par exemple, les puces des machines minières ont une structure très simple et une très petite taille, elles sont donc très adaptées aux tests initiaux. Le premier client de la puce 3 nm de Samsung était une usine d'équipement minier en Chine.

Wu Zihao a déclaré : « Une fois que l'usine Fab a testé avec succès des commandes de clients aussi modestes, elle peut alors essayer de produire en masse des processeurs pour PC, des puces pour téléphones portables et enfin des puces IA, étape par étape.

À l'heure actuelle, les principaux fabricants nationaux ont investi au moins des milliards de dollars dans des puces qu'ils ont développées eux-mêmes. Si une start-up veut entrer dans le jeu, elle doit soit avoir suffisamment de clients précoces, soit disposer d'une plate-forme d'application pour prendre en charge l'adaptation des puces et les essais et erreurs, ou elle doit disposer d'un capital suffisant ou de solides capacités de financement. être rencontré.

Chen Wei a déclaré à Xinchao IC que s'il s'agit d'une entreprise commerciale sans réserves de main-d'œuvre à faible coût et ne s'appuyant pas sur des écoles ou des instituts de recherche, elle aura besoin d'un financement d'au moins 500 millions à 1 milliard de RMB avant la production de masse ; est un institut de recherche ou un institut de recherche. Avec d'autres soutiens, les coûts de main-d'œuvre peuvent être considérablement réduits et le seuil monétaire peut être légèrement inférieur.

« Si vous n'avez pas beaucoup d'argent, mais que cette startup dispose de très fortes capacités de contrôle des coûts, elle peut tirer pleinement parti de la collaboration en amont et en aval pour réduire les coûts. Tout est pour assurer la poursuite de la recherche et du développement de produits.

En termes de priorité de sélection des Fab, selon des personnes proches du dossier, les startups choisiront dans un premier temps de commander la capacité de production de TSMC, suivie de GlobalFoundries, mais GlobalFoundries ne dispose pas de processus et de packaging avancés, puis elles se tourneront vers SMIC, mais SMIC All la capacité de production réservable à l’international est prévue pour l’année suivante.

Face à cette situation, les institutions d’investissement adoptent une perspective à plus long terme.

Yu Hao a déclaré que pour les seules puces haut de gamme auto-développées au niveau national, il est inévitable de faire face à des goulots d'étranglement à court terme. Le long terme dépend de la vitesse d'évolution du polissage des lignes de processus avancées et de l'expansion des capacités représentées par le SMIC. repose principalement sur la circulation interne. Cependant, les fabricants dotés de capacités de conception de puces haut de gamme pourraient envisager de s'implanter à l'étranger et d'utiliser la circulation externe pour stimuler la circulation interne. Sortir ouvrira un avenir meilleur.

03 Ce n’est pas facile d’être le « fossoyeur » de Nvidia

Les anciens clients créent leur propre entreprise, et Nvidia est toujours celui qui en souffre.

Cette vague mondiale d’auto-recherche explose plus que la précédente. En plus des résultats d'auto-recherches matures tels que Google TPU et Amazon Graviton. Récemment, l'ensemble du cercle technologique a été touché par « Sohu, la première puce d'IA au monde dédiée à Transformer ».

La start-up américaine de puces Etched lance la puce d'IA Sohu spécifique au transformateur

Cette puce intègre directement l'architecture Transformer dans la puce, et ses performances de raisonnement dépassent de loin celles des GPU et autres puces d'intelligence artificielle générales. Elle serait 10 fois plus puissante que la B200, une puce de premier ordre qui n'a été lancée qu'en 2017. Mars de cette année. La rumeur dit qu'un serveur équipé de 8 puces Sohu aurait des performances comparables à un cluster de 160 GPU H100 et pourrait traiter jusqu'à 500 000 jetons Llama 7B par seconde.

Le « poulet frit populaire » était né, et la Fab Factory et ses partenaires étaient heureux.

Il est rapporté que la société a directement coopéré avec le processus TSMC 4 nm pour la production de puces Sohu et a obtenu suffisamment de fournitures de HBM et de serveurs auprès des principaux fournisseurs. Certains des premiers clients ont déjà réservé des dizaines de millions de dollars en matériel auprès de la société. Les internautes ont donné à Etched un surnom : "Nvidia's Gravedigger".

Mais le mythe de « l’auto-recherche » de NVIDIA sera-t-il brisé par la fumée montante ? pas vraiment.

Dans l'industrie des semi-conducteurs, il existe un fameux "cycle de M. Ben" - les types de puces évoluent régulièrement entre généralisation et personnalisation - dans une certaine période, la structure générale se vend le mieux et est populaire parmi les utilisateurs, mais après avoir atteint un certain stade. , les structures à vocation générale ne parviennent plus à répondre aux besoins spécifiques et les structures à vocation spécifique deviendront populaires.

Et NVIDIA représente à juste titre l’ère de l’architecture universelle, qui se trouve être encore à son apogée.

Selon les statistiques de Wells Fargo, NVIDIA détient actuellement 98 % du marché mondial de l’accélération de l’IA dans les centres de données et occupe une position dominante absolue. Cela signifie que 98 % de la population mondiale utilise le CUDA C de NVIDIA pour « écraser » les performances de tous les GPU, et que seuls les 2 à 3 % restants insistent encore pour utiliser un mauvais « marteau » pour marteler la même chose. "clou".

"Maintenant, qu'il s'agisse d'Amazon ou d'Intel, les processeurs qu'ils fabriquent eux-mêmes ne peuvent pas satisfaire économiquement la maximisation des intérêts d'un fournisseur de cloud, ils continueront donc certainement à utiliser les puces NVIDIA en grande quantité jusqu'au jour où NVIDIA perdra complètement son avantage. Sur la route de spécialisation en élevage, a indiqué la personne proche du dossier.

Cependant, s'allonger n'est pas conforme à la personnalité de NVIDIA. Huang Renxun est une personne qui sait « naître dans le chagrin et mourir dans le bonheur ». Dans son discours à l'Université nationale de Taiwan il y a un an, il a déclaré : « Qu'il s'agisse de courir pour se nourrir. , ou pas Lorsque vous êtes utilisé comme nourriture par d’autres, vous n’avez souvent aucune idée de la situation dans laquelle vous vous trouvez, mais continuez à courir quoi qu’il arrive.

Cette fois, face au défi de l'autorecherche dans toute la Silicon Valley, Nvidia joue aussi ses cartes.

La personne senior susmentionnée a déclaré à Xinchao IC : « Nvidia n'est plus un GPU à usage général. Dans son unité GPU, vous pouvez voir un grand nombre de cœurs Tensor pour résoudre les calculs matriciels. moteurs, etc., que ce soit en termes de structure matérielle ou de mises à jour des opérateurs matériels, NVIDIA se pousse chaque année vers la tendance de conception basée sur DSA.

DSA (Domain Specific Architecture) est une architecture de processeur programmable personnalisée pour des domaines spécifiques, qui peut optimiser les performances et la rentabilité d'applications spécifiques. Actuellement, Google, Tesla, OpenAI et Cerebras ont tous lancé leurs propres puces DSA pour des applications spécifiques.

Selon des personnes proches du dossier, tous les fabricants de DSA constateront que même si Nvidia ne modifie pas le matériel et que les GPU à usage général ne mettent à jour qu'un seul opérateur, les avantages des fabricants de DSA seront complètement perdus. Il semble que par rapport à NVIDIA, non seulement la zone de la puce logique n'est pas assez grande, mais la capacité et la vitesse de l'appareil ne sont pas assez grandes, la puissance de calcul n'est pas aussi bonne que celle de NVIDIA et l'adaptabilité du logiciel n'est pas assez bonne. à quoi sont confrontés tous les fabricants de DSA. Le problème : le cycle Muben allait à l'origine évoluer vers une architecture et une personnalisation spécifiques au domaine DSA, mais il est maintenant revenu à l'ère des processeurs à usage général.

En plus de « se regarder dans le miroir » avec les fabricants de DSA, Nvidia a également étendu sa branche d'olivier à l'auto-recherche. Début 2024, elle a créé un nouveau département commercial, dirigé par la vétéran des semi-conducteurs Dina McKinney, spécifiquement pour le cloud computing et les télécommunications 5G. et des jeux. Nous construisons des puces personnalisées pour les clients des domaines de l'automobile et d'autres domaines.

Reuters a cité des personnes proches du dossier qui ont déclaré que les dirigeants de Nvidia avaient rencontré des représentants d'Amazon, Meta, Microsoft, Google et OpenAI pour discuter de puces personnalisées. En plus des puces pour centres de données, la société cherche également à acquérir des puces de télécommunications et d'automobile. et Client de jeux vidéo.

Auparavant, il avait été rapporté que la nouvelle version de la console de jeu Nintendo Switch lancée par Nintendo cette année serait probablement équipée des puces personnalisées de NVIDIA. NVIDIA est également très présent sur le marché des ordinateurs de poche et a lancé une série de puces mobiles Tegra. Bien que cette série de puces n'ait finalement pas occupé de place sur le marché des appareils mobiles.

Dans un marché dominé par la rentabilité, il n’est pas si simple d’être le fossoyeur de Nvidia. La plupart des fossoyeurs précédents ont échoué - ils pourraient éventuellement être rachetés. Par exemple, Intel et Google ont acquis de nombreuses startups, mais la plupart des autres sociétés n'ont même pas attendu l'acquisition et sont mortes directement.

Il est peut-être plus facile pour les start-up de réussir si elles changent de perspective.

"Par exemple, ne soyez pas obsédé par le processeur d'IA lui-même. Au lieu de passer beaucoup de temps à réaliser l'idéal d'un DSA, il est préférable d'envisager des solutions au niveau du système. Par exemple, les périphériques peuvent être conçus pour fournir des services pour le processeur d'IA et un stockage professionnel, les capteurs professionnels peuvent également atteindre le même objectif", a déclaré la personne proche du dossier.

En 2019, Nvidia a annoncé l'acquisition de Mellanox pour 6,9 milliards de dollars. Cette valorisation était si élevée que Nvidia a presque épuisé la totalité de ses flux de trésorerie.

Cette société ne développe ni ports ni modules photovoltaïques, et ne développe pas elle-même de commutateurs. Elle ne fabrique qu'un seul produit : le PHY « InfiniBand » pour l'interconnexion à haut débit entre la couche inférieure du commutateur et la couche inférieure de communication. Pour Nvidia, qui souhaitait à l’époque dépasser les limites de l’interconnexion des serveurs, il s’agissait d’une exigence essentielle en matière de périphériques. Quelle que soit la qualité de NVLink à cette époque, il était toujours verrouillé autour d'une seule machine. Mais InfiniBand peut permettre aux commutateurs de briser le goulot d'étranglement d'interconnexion entre les serveurs et d'interconnecter tous les GPU dans un grand cluster.

Au vu de la situation actuelle, la situation intérieure est en plein essor et les balles des puces auto-développées devront voler pendant un certain temps. Chen Wei estime que créer un jeu n'est pas une mauvaise chose, mais qu'il est nécessaire de créer un jeu haut de gamme pour éviter de rater la période critique du développement industriel.

Zhou Jiangong, le fondateur d'Unfinished Research, a développé ce point de vue. Il estime que les applications futures nécessiteront des puces d'IA professionnelles, personnalisées et miniaturisées qui dépasseront la demande de grands modèles de base de pointe. La formation de modèles open source et plus petits à moindre coût, ou le réglage fin et la distillation de grands modèles, ainsi que l'inférence, offrent tous un large espace pour les puces auto-développées. De plus, face aux changements rapides et au stade immature des nouvelles technologies, il y aura un grand nombre d'opportunités d'auto-recherche autour des applications ci-dessus.

"Ne faites pas des choses qui mettent fin à Nvidia, mais faites plus de choses en dehors de Nvidia."