nouvelles

google a révélé son arme secrète tpu, alphachip est apparu dans nature et a donné une explication approfondie du processus de développement des puces de conception ia

2024-09-29

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

récemment, google deepmind a officiellement annoncé son dernier algorithme de conception de puces alphachip on nature. cette méthode est dédiée à l'accélération et à l'optimisation du développement de puces informatiques. elle a été testée par plusieurs produits tpu et peut accomplir les tâches requises par les experts humains en seulement quelques-unes. des semaines, voire des mois, de conception de la disposition des puces.

en 2020, google a publié un article préimprimé historique « chip placement with deep reinforcement learning », montrant pour la première fois au monde sa disposition de puce conçue à l'aide d'une nouvelle méthode d'apprentissage par renforcement.cette innovation permet à google d'introduire l'ia dans la conception des puces tpu, obtenant ainsi une disposition de puce qui surpasse les concepteurs humains.

d’ici 2022, google a rendu encore plus open source le code de l’algorithme décrit dans l’article, permettant aux chercheurs du monde entier d’utiliser cette ressource pour pré-entraîner des blocs de puces.

aujourd'hui, cette méthode d'apprentissage basée sur l'ia a passé le test de plusieurs générations de produits tels que tpu v5e, tpu v5p et trillium, et a obtenu des résultats remarquables au sein de google. ce qui est encore plus remarquable, c'est que l'équipe de google deepmind a récemment publié une annexe sur cette méthode dans nature, détaillant plus en détail son impact considérable sur le domaine de la conception de puces. en même temps,google a également ouvert un point de contrôle basé sur la pré-formation de 20 modules tpu, partageant les poids des modèles, et l'a nommé alphachip.

l'avènement d'alphachip annonce non seulement que l'ia sera plus largement utilisée dans le domaine de la conception de puces, mais marque également que nous entrons dans une nouvelle ère de « conception basée sur des puces ».

alphachip : comment google deepmind utilise l'ia pour révolutionner la conception des puces

en tant que summum de deepmind de google, alphachip attire l'attention de la communauté technologique mondiale grâce à ses progrès révolutionnaires dans la conception de puces.

la conception de puces est un domaine au sommet de la technologie moderne. sa complexité réside dans la connexion ingénieuse d’innombrables composants de précision via des fils extrêmement fins. en tant qu'une des premières techniques d'apprentissage par renforcement appliquées pour résoudre des problèmes d'ingénierie réels, alphachip est capable de réaliser des conceptions de puces comparables ou supérieures à celles des humains en quelques heures seulement, au lieu de semaines ou de mois de travail manuel. ce développement historique a ouvert la porte à notre imagination au-delà des limites traditionnelles.

alors, comment alphachip réalise-t-il exactement cet exploit ?

le secret d’alphachip réside dans son approche de l’apprentissage par renforcement, qui traite la conception de la configuration des puces comme un jeu. en commençant par une grille vierge, alphachip place progressivement chaque composant du circuit jusqu'à ce que tout soit en place. par la suite, en fonction de la qualité de la mise en page, le système attribuera les récompenses correspondantes.

plus important encore, google a proposé de manière innovante un réseau neuronal graphique « basé sur les bords ».cela permet à alphachip d'apprendre les relations mutuelles entre les composants de la puce et de les appliquer à la conception de la puce entière, réalisant ainsi l'auto-transcendance dans chaque conception. semblable à alphago, alphachip peut apprendre grâce à des « jeux » et maîtriser l'art de concevoir d'excellentes dispositions de puces.

dans le processus spécifique de conception de la configuration tpu, alphachip effectuera d'abord une pré-formation sur divers modules des générations précédentes de puces, notamment les modules réseau sur puce et inter-puces, les contrôleurs de mémoire et les tampons de transmission de données. cette phase de pré-formation apporte à alphachip une richesse d'expérience. google a ensuite utilisé alphachip pour générer des mises en page de haute qualité pour les modules tpu actuels.

contrairement aux méthodes traditionnelles, alphachip s'optimise continuellement en résolvant davantage de tâches de disposition des puces, tout comme les experts humains continuent d'améliorer leurs compétences par la pratique. comme l'a déclaré demis hassabis, co-fondateur et pdg de deepmind :google a construit une puissante boucle de rétroaction autour d'alphachip :

* tout d'abord, formez un modèle de conception de puce avancé (alphachip)

* deuxièmement, utilisez alphachip pour concevoir de meilleures puces ia

* ensuite, utilisez ces puces ia pour former de meilleurs modèles

* enfin, utilisez ces modèles pour concevoir de meilleures puces

à plusieurs reprises, le modèle et la puce ia sont mis à niveau simultanément. demis hassabis a déclaré : « c'est en partie la raison pour laquelle la pile google tpu fonctionne si bien. »

alphachip place non seulement plus de modules que les experts humains, mais a également une longueur de câblage nettement inférieure.avec l'introduction de chaque nouvelle génération de tpu, alphachip conçoit de meilleures dispositions de puces et fournit un plan global plus complet, raccourcissant ainsi le cycle de conception et améliorant les performances des puces.

le nombre de blocs de puces de conception alphachip et la réduction moyenne de la longueur de ligne des trois générations de tpu de google (v5e, tpu v5p)

le parcours de 10 ans de google tpu : de la persistance dans l'asic à l'innovation dans la conception de l'ia

en tant qu'explorateur et pionnier dans le domaine du tpu, si l'on considère l'historique de développement de google dans cette ligne technologique, il s'appuie non seulement sur sa perspicacité, mais démontre également son extraordinaire courage.

comme nous le savons tous, dans les années 1980,l'asic (application specific integrated circuit) se caractérise par une rentabilité élevée, une forte puissance de traitement et une vitesse rapide.il a gagné la faveur du marché. cependant, la fonctionnalité asic est déterminée par des outils de masque personnalisés, ce qui signifie que les clients doivent payer d'avance des coûts d'ingénierie non récurrents (nre) élevés.

à ce moment,le fpga (field programmable gate array) présente les avantages de réduire les coûts initiaux et de réduire le risque lié à une logique numérique personnalisée.entrer aux yeux du public, même s'il n'est pas complètement supérieur en termes de performances, il est unique sur le marché.

à cette époque, l'industrie prédisait généralement que la loi de moore amènerait les performances des fpga au-delà des besoins des asic. mais il s'avère que le fpga, en tant que "puce universelle" programmable, fonctionne bien dans les produits exploratoires et à faible volume et peut atteindre de meilleurs indicateurs de vitesse, de consommation d'énergie ou de coût que le gpu, mais il ne peut toujours pas se débarrasser de "l'universalité et". l’optimalité ne peut pas être atteinte en même temps. » une fois que les fpga ont ouvert la voie à une architecture spécialisée, ils ont cédé la place à des asic plus spécialisés.

après l'entrée dans le 21e siècle, l'engouement pour la technologie de l'ia est devenu de plus en plus grand. les algorithmes d'apprentissage automatique et d'apprentissage profond continuent de se multiplier. la demande de l'industrie pour des puces informatiques dédiées à l'ia hautes performances et à faible consommation a augmenté. . sont devenus de plus en plus inefficaces dans de nombreuses tâches complexes. dans ce contexte, google a pris une décision audacieuse en 2013 :choisissez asic pour créer une infrastructure tpu et développer autour de tensorflow et jax.

il convient de noter que la recherche et le développement indépendants des asic sont un processus comportant un cycle long, des investissements importants, un seuil élevé et un risque élevé. une mauvaise direction peut entraîner d’énormes pertes économiques. cependant, afin d'explorer des solutions d'apprentissage automatique plus rentables et économes en énergie, après que google ait réalisé des progrès révolutionnaires dans la reconnaissance d'images grâce à l'apprentissage profond en 2012, google a immédiatement commencé à développer le tpuv1 en 2013 et a annoncé la première génération en 2015. le tpu la puce (tpu v1) est en ligne en interne,cela marque la naissance du premier accélérateur au monde conçu spécifiquement pour l’ia.

heureusement, tpu a rapidement inauguré une opportunité de démonstration très médiatisée : en mars 2016, alphago lee a battu avec succès le champion du monde de go lee sedol. en tant que version de deuxième génération de la série alphago, elle fonctionne sur google cloud pour le calcul. .

cependant, le tpu n’a pas immédiatement obtenu une application réussie à grande échelle dans l’industrie. ce n’est que lorsque la méthode de configuration des puces alphachip a été proposée que le tpu est véritablement entré dans une nouvelle étape de développement.

historique du développement de google tpu

en 2020, google a démontré les capacités d'alphachip dans un article préimprimé « chip placement with deep reinforcement learning ».il est capable d'apprendre de l'expérience passée et de s'améliorer continuellement, et peut générer de riches intégrations de fonctionnalités pour les netlists d'entrée en concevant une architecture neuronale de récompense qui peut prédire avec précision diverses netlists et leurs dispositions.

alphachip considère les conditions d'optimisation des performances comme les conditions de victoire du jeu, adopte des méthodes d'apprentissage par renforcement et optimise en permanence la capacité de disposition des puces en formant un agent dans le but de maximiser les récompenses cumulées. ils ont lancé 10 000 jeux, permettant à l'ia de s'entraîner à la disposition et au routage sur 10 000 puces et de collecter des données, tout en apprenant et en optimisant continuellement.

en fin de compte, ils ont constaté que l’ia surpassait ou égalait la disposition manuelle en termes de surface, de puissance et de longueur de fil par rapport aux ingénieurs humains, tout en prenant beaucoup moins de temps pour répondre aux normes de conception. les résultats montrent quealphachip peut générer des mises en page qui rivalisent ou dépassent les efforts manuels sur les netlists d'accélérateurs modernes en moins de 6 heures.dans les mêmes conditions, les experts humains existants peuvent mettre plusieurs semaines pour réaliser le même travail.

avec l'aide d'alphachip, google s'appuie de plus en plus sur le tpu.décembre 2023google a lancé 3 versions différentes de gemini, un grand modèle général multimodal. la formation de ce modèle utilise largement la puce cloud tpu v5p.mai 2024,google a lancé la puce tpu trillium de sixième génération, qui peut être étendue en un cluster comprenant jusqu'à 256 tpu dans un seul pod à large bande passante et à faible latence. par rapport aux générations précédentes de produits, trillium possède de plus grandes capacités d'adaptation de la formation de modèles. .

dans le même temps, les puces tpu ont progressivement dépassé les limites de google et ont acquis une plus grande reconnaissance sur le marché.30 juillet 2024dans un document de recherche publié, apple a affirmé avoir sélectionné deux clusters cloud d'unités de traitement tensoriel (tpu) de google lors de la formation du modèle d'intelligence artificielle afm dans l'écosystème apple intelligence. d'autres données montrent que plus de 60 % des startups d'ia générative et près de 90 % des licornes d'ia générative utilisent l'infrastructure d'ia et les services cloud tpu de google cloud.

il existe divers signes indiquant qu'après que google ait affûté son épée pendant dix ans, le tpu est sorti de la période de culture et a commencé à réalimenter google à l'ère de l'ia avec ses excellentes performances matérielles.le parcours « ai design ai chip » contenu dans alphachip ouvre également de nouveaux horizons dans le domaine de la conception de puces.

l'ia révolutionne la conception des puces : de google alphachip à l'exploration de l'automatisation complète des processus

bien qu’alphachip soit unique dans le domaine des puces conçues par l’ia, elle n’est pas la seule.la portée de la technologie de l’ia a été largement étendue à de nombreux maillons clés tels que la vérification et les tests des puces.

la tâche principale de la conception d'une puce est d'optimiser la consommation d'énergie (power), les performances (performance) et la surface (area) de la puce. ces trois indicateurs clés sont collectivement appelés ppa. ce défi est également appelé exploration de l'espace de conception. traditionnellement, cette tâche est accomplie par les outils eda, mais afin d'obtenir des performances optimales, les ingénieurs en puces doivent constamment effectuer des ajustements manuels, puis les confier à nouveau aux outils eda pour une optimisation, et ainsi de suite. ce processus revient à disposer les meubles à la maison, en essayant constamment de maximiser l'utilisation de l'espace et d'optimiser la circulation, mais chaque ajustement équivaut à déplacer les meubles et à les réorganiser, ce qui prend extrêmement de temps et de main d'œuvre.

afin de résoudre ce problème,synopsys a lancé dso.ai en 2020.il s'agit de la première solution de conception de puces du secteur intégrant l'ia et l'eda. dso.ai utilise la technologie d'apprentissage par renforcement pour rechercher automatiquement l'espace de conception via l'ia afin de trouver le meilleur point d'équilibre sans intervention manuelle. cet outil a été utilisé par de nombreux géants des puces.

par exemple, après avoir utilisé dso.ai, microsoft a réduit la consommation d'énergie des modules de puces de 10 à 15 % tout en conservant les mêmes performances ; stmicroelectronics a multiplié par plus de 3 l'efficacité de l'exploration ppa du géant des puces mémoire sk hynix ; de 5%. les données synopsys montrent que dso.ai a aidé avec succès plus de 300 enregistrements commerciaux, soulignant le rôle important que joue l'ia dans la conception et la production de puces réelles.

en termes de vérification des puces assistée par l'ia, un rapport technique publié par synopsys a également souligné que le processus de vérification occupe jusqu'à 70 % de l'ensemble du cycle de développement des puces. le coût de l'enregistrement d'une puce peut atteindre des centaines de millions de dollars, et la complexité des puces modernes continue d'augmenter, ce qui rend la vérification difficile. à cette fin,synopsys lance l'outil vso.ai,utilisez l’ia pour optimiser l’espace de vérification et accélérer la convergence de la couverture.

vso.ai peut déduire différents types de couverture, en complément de la couverture de code traditionnelle. l'ia peut également tirer des enseignements de l'expérience de vérification pour optimiser en permanence les objectifs de couverture. en outre, synopsys a également lancé l'outil tso.ai, qui peut aider les développeurs de puces à identifier les puces défectueuses fabriquées par les fonderies.

la profonde implication de l’ia dans le domaine de la conception de puces a donné naissance à une idée audacieuse : pouvons-nous utiliser l’ia pour concevoir une puce complète ? d’ailleurs, nvidia a déjà essayé dans ce domaine. concevoir des circuits via des agents d'apprentissage par renforcement profond,près de 13 000 circuits du h100 de nvidia ont été conçus par l'ia. l'institut de technologie informatique de l'académie chinoise des sciences a également utilisé l'ia pour générer une puce de processeur risc-v appelée « qiu meng no. 1 » en 5 heures.avec 4 millions de portes logiques, ses performances sont comparables à celles d'intel 80486.

dans l’ensemble, la capacité de l’ia à concevoir des puces complètes est encore limitée, mais il s’agit sans aucun doute d’une opportunité importante pour le développement futur de puces. avec les progrès continus de la technologie, le potentiel de l’ia dans le domaine de la conception de puces sera sûrement exploré et utilisé davantage, et, à terme, changera l’ensemble du processus de conception de puces.

auteur : tian xiaoyao