nouvelles

un aperçu direct de l'état actuel des puces d'ia nationales : production de sang gpu, raids tpu, chipsets devenant une tendance et goulots d'étranglement du réseau

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

auteur |

xinxi a rapporté le 6 septembre que le sommet mondial annuel sur les puces ia (gacs 2024) s'ouvrait aujourd'hui à pékin. la salle était pleine à craquer et le nombre de téléspectateurs de la diffusion en direct sur le cloud a atteint 1,2 million.

▲il y avait une foule immense à l'intérieur et à l'extérieur de la salle.

la conférence était parrainée par core east west et intelligent orangutan de zhiyi technology. sur le thème « construire ensemble des routes principales à l'ère de l'informatique intelligente », la conférence a invité plus de 50 invités des domaines des puces ia, des chipsets, de risc-v et de l'intelligence. clusters informatiques, ai infra et d'autres domaines. les invités partageront des informations utiles lors de la réunion.

c'est le cinquième anniversaire de la création de la licorne nationale gpgpu biren technology. lors de la conférence, biren technology a annoncé avoir réalisé une percée dans la technologie de base de formation mixte multicœur et créé pour la première fois une solution de formation collaborative gpu hétérogène. dans l'industrie, il peut prendre en charge 3 types hétérogènes ou plus de gpu pour le même grand modèle.

▲biren technology lance la solution nationale de formation collaborative sur gpu hétérogène hgct

gong lunchang, co-fondateur et pdg de zhiyi technology, a prononcé un discours en tant qu'organisateur. cette année, c'est la septième année que se tient le sommet mondial sur les puces ia. le sommet est devenu la conférence industrielle la plus influente dans ce domaine en chine. est un bon endroit pour comprendre le développement des puces ia au pays et à l'étranger.

▲gong lunchang, co-fondateur et pdg de zhiyi technology

le global ai chip summit dure deux jours. le lieu principal comprend la cérémonie d'ouverture et trois sessions majeures (architecture de puce ai, puce ai de centre de données, puce ai de pointe). les sous-sites comprennent le chiplet technology forum et l'intelligent computing cluster technology forum. et forum risc-v innovation.

lors de la cérémonie d'ouverture, yin shouyi, professeur de l'université tsinghua et vice-doyen de l'école des circuits intégrés, a prononcé un discours intitulé « discussion sur la voie de développement des puces à haute puissance de calcul : de l'architecture informatique à l'architecture intégrée », passant systématiquement en revue puces à haute puissance de calcul. défis techniques existants et analyse approfondie de cinq voies technologiques innovantes : puces de flux de données, puces de stockage et de calcul intégrées, puces reconfigurables, puces intégrées tridimensionnelles et puces au niveau des tranches.

aujourd'hui, 21 experts, entrepreneurs et dirigeants d'universités, d'instituts de recherche et d'entreprises de puces ia de premier plan partageront leur travail. parmi eux, la session de dialogue haut de gamme a invité des représentants de trois startups de puces d'ia à débattre passionnément, à savoir biren technology, une licorne nationale de puces de haute puissance, aixin yuanzhi, une licorne de puces d'ia côté appareil et côté bord, et une entreprise que seule lingchuan technology, une jeune startup de puces ia fondée il y a six mois. ils se sont concentrés sur la discussion de l’état actuel, des dernières pratiques et des orientations avancées de l’industrie des puces ia.

1. résoudre les défis de l'offre et de la demande liés à la puissance de calcul des modèles à grande échelle et à une architecture innovante pour surmonter les goulots d'étranglement en matière de performances

yin shouyi, professeur à l'université tsinghua et vice-doyen de l'école des circuits intégrés, a expliqué les difficultés entre l'offre et la demande de puissance de calcul à l'ère des grands modèles : la technologie des puces est confrontée à des limites de réduction, ce qui entraîne une augmentation de la puissance de calcul apportée par les dividendes du processus ne sont pas durables ; le système est confronté à un goulot d'étranglement en cas de réduction, une bande passante de communication insuffisante entraîne une perte de performances du système.

l'opportunité de résoudre ces deux problèmes majeurs réside dans l'innovation conjointe de l'architecture informatique des puces informatiques et de l'architecture intégrée : l'innovation dans l'architecture informatique permet à chaque transistor d'être pleinement utilisé et d'exercer une puissance de calcul plus forte. l'innovation dans l'architecture intégrée permet à l'échelle des puces de percer ; les limites.

il existe actuellement cinq nouvelles voies technologiques pour le développement de puces à haute puissance de calcul : les puces à flux de données, les puces reconfigurables, les puces de stockage et de calcul intégrées, les puces intégrées tridimensionnelles et les puces au niveau des tranches. aucune de ces voies ne repose entièrement sur les processus de fabrication les plus avancés, ce qui contribuera à ouvrir un nouvel espace à l'industrie nationale des puces pour améliorer la puissance de calcul.

▲yin shouyi, professeur à l'université tsinghua et doyen adjoint de l'école des circuits intégrés

amd a créé une gamme complète de produits dans le domaine de l'infrastructure d'ia de bout en bout, allant des serveurs de centres de données, des pc d'ia aux appareils intelligents embarqués et de pointe, et fournit des logiciels open source d'ia de pointe et un écosystème ouvert. la plate-forme de processeur cpu d'amd conçue sur la base de l'architecture avancée zen4 et les accélérateurs de la série mi basés sur l'architecture cdna3 pour le raisonnement et la formation de l'ia ont été adoptés par des géants tels que microsoft.

selon wang hongqiang, directeur principal de la division intelligence artificielle d'amd, amd promeut également une infrastructure réseau haute performance (ualink, ultra ethernet) dans les centres de données, ce qui est crucial pour que les structures de réseau d'ia prennent en charge une commutation rapide et une latence extrêmement faible, et pour étendre les performances du centre de données ia est important.

amd est sur le point de lancer la prochaine génération de pc ai hautes performances. son npu ryzen ai basé sur l'architecture xdna de deuxième génération peut fournir une puissance de calcul de 50 tops et augmenter le ratio d'efficacité énergétique à 35 fois celui d'une architecture à usage général. poussés par les efforts d’ai pc en matière de confidentialité, de sécurité et d’autonomie des données, d’importantes charges de travail d’ia commencent à être déployées sur les pc. en tant que l'un des principaux fournisseurs mondiaux d'infrastructures d'ia, amd est disposé à travailler avec ses clients et ses développeurs pour construire un avenir transformateur.

▲wang hongqiang, directeur principal de la division intelligence artificielle d'amd

depuis 2015, qualcomm innove continuellement dans la conception du matériel npu en fonction de l'évolution des cas d'utilisation des applications d'ia. représenté par le snapdragon 8 de troisième génération, qualcomm ai engine adopte une architecture informatique hétérogène qui intègre plusieurs processeurs tels que cpu, gpu et npu. parmi eux, qualcomm hexagon npu optimise les performances et l'efficacité énergétique grâce à une mémoire à grande échelle, une alimentation dédiée pour les accélérateurs, des mises à niveau de la microarchitecture et d'autres conceptions. l'ia a de nombreux cas d'utilisation et des exigences variables en matière de puissance de calcul. par conséquent, la demande d'intégration hétérogène de calcul et de processeur existera pendant longtemps, ce qui entraînera également une série d'améliorations en termes de performances de pointe, d'efficacité énergétique, de coût, etc.

la gamme de produits de qualcomm couvre un large éventail de scénarios d'applications de pointe tels que les téléphones mobiles, les pc, la xr, les automobiles et l'iot. elle peut aider les développeurs à utiliser les solutions logicielles et matérielles d'ia de qualcomm pour l'accélération des algorithmes dans différentes formes de produits, apportant ainsi une richesse. d'avantages pour les consommateurs. expérience et cas d'utilisation de l'ia sur appareil. enfin, wan weixing, responsable de qualcomm ai product technology china, a également annoncé que la plate-forme mobile snapdragon de nouvelle génération équipée du dernier processeur qualcomm oryon serait lancée lors du snapdragon summit qui se tiendra du 21 au 23 octobre de cette année.

▲wan weixing, responsable de la technologie des produits qualcomm ai en chine

yang yue, co-fondateur et pdg de pingxin technology, a expliqué le processus d'avancement de la technologie intégrée de stockage et de calcul. l'émergence et la croissance des puces grand public dans l'industrie sont étroitement liées aux caractéristiques des besoins informatiques actuels. vers 2015, le goulot d'étranglement informatique dans l'architecture informatique a migré du côté processeur vers le côté stockage, en particulier l'émergence des réseaux neuronaux, qui s'est accélérée. l'efficacité informatique des puces d'ia avec le rythme de l'amélioration, la technologie de stockage et informatique a attiré l'attention.

yang yue estime qu'à l'ère des grands modèles, l'opportunité d'une technologie intégrée de stockage et d'informatique consiste à ajouter l'informatique partout où il y a un stockage de données. avec le développement continu des logiciels, les puces end-side basées sur le stockage et l'informatique ont progressivement mûri cette année. à l’avenir, la résolution des goulots d’étranglement de la bande passante des données dans le cloud pourrait devenir la prochaine application phare pour les puces de stockage et de calcul.

▲yang yue, co-fondateur et pdg de pingxin technology

tan zhanhong, directeur technique d'arctic xiongxin, a déclaré que dans le domaine du calcul haute performance, il existe deux paradigmes différents dans la conception de serveurs : la forme de serveur standard et l'architecture de serveur personnalisée. sous la forme de serveurs standard, arctic xiongxin se concentre sur l'obtention de performances de coût plus élevées grâce à des solutions appropriées de fractionnement et de conditionnement des puces dans la zone contrainte standard, sous la forme de serveurs non standard, il offre des opportunités d'intégration au niveau de la tranche, en se concentrant sur l'intégration ; de conception de puces et de systèmes, et de co-conception de serveurs et de puces, dans le but d'atteindre l'objectif du « serveur en tant que puce ».

en particulier, tan zhanhong a souligné que différentes conceptions de puces ont des exigences de bande passante différentes. par exemple, dans les processus supérieurs à 7 nm, combinés à l'optimisation des communications de déploiement, une densité de bande passante d'interconnexion élevée n'est souvent pas requise, un packaging avancé n'est donc pas nécessaire. peut répondre aux exigences de performance et parvenir à une solution rentable. l'ip pb-link d'arctic xiongxin, basée sur le « core chip interconnect interface standard », a officiellement réalisé une interconnexion à faible coût de conditionnement et a maintenant commencé à autoriser des parties externes.

▲ tan zhanhong, directeur technique de l'arctique xiongxin

2. dialogue haut de gamme : les puces d'ia nationales ont amélioré les capacités hématopoïétiques et les produits de la plus jeune start-up ont été lancés sur kuaishou

zhang guoren, co-fondateur et rédacteur en chef de zhiyi technology, et ding yunfan, vice-président et architecte en chef des logiciels d'ia de biren technology, liu li, co-fondateur et vice-président de lingchuan technology, et liu jianwei, co -fondateur et vice-président d'aixin yuanzhi, a lancé la discussion. une table ronde sur le thème « consensus, co-création et gagnant-gagnant pour la mise en œuvre de puces d'ia nationales ».

zhang guoren a déclaré au début de la table ronde que le sixième sommet sur les puces ia, initié par zhidongxi, coredongxi et zhiangzhi, est la conférence professionnelle la plus ancienne dans ce domaine en chine et a été témoin d'un boom au cours des dernières années. le développement des puces d'ia et des grands modèles a également été témoin de la montée d'un certain nombre de « nouvelles forces » nationales de fabrication de noyaux.

▲zhang guoren, co-fondateur et rédacteur en chef de zhiyi technology

ding yunfan a déclaré que les puces de grande puissance de calcul sont une industrie à forte intensité technologique, à forte intensité de talents et à forte intensité de capital. en tant que licorne de puces bénéficiant du plus grand financement public du marché, biren technology dispose des meilleurs talents. ses produits de première génération ont été produits en série et plusieurs clusters de kilo-cartes gpu nationaux ont été lancés, qui peuvent générer du sang de manière indépendante. cependant, la situation globale de l'industrie nationale des puces n'est toujours pas facile et il existe toujours un écart entre les aspects écologiques et les pays étrangers.

de nombreuses puces d'ia nationales ont commencé à être déployées dans les centres de données et les centres informatiques intelligents. selon ding yunfan, les produits nationaux de nvidia ne sont pas très rentables tant que les puces nationales peuvent offrir des performances élevées et une rentabilité élevée, il y aura un marché. à l'heure actuelle, il y a de plus en plus de nouvelles concernant le lancement de l'industrie nationale des puces et l'amélioration des capacités hématopoïétiques. l'écart avec nvidia va progressivement se réduire.

▲ding yunfan, vice-président de biren technology et architecte en chef des logiciels d'ia

liu jianwei estime que les faibles coûts sont un élément très important, que les entreprises devront éventuellement régler leurs comptes et que leurs investissements dans les infrastructures doivent être récupérés. liu li estime qu'à l'avenir, dans les domaines segmentés tels que l'intelligence embarquée et la vidéo intelligente, l'entrée d'un plus grand nombre d'entreprises apportera une valeur plus élevée que les produits généraux, ce qui comprimera les revenus et les bénéfices de nvidia.

lingchuan technology est l'une des plus jeunes startups nationales de puces d'ia. elle a été créée en mars de cette année et a finalisé une ronde de financement. les puces de traitement vidéo intelligentes actuellement en vente ont été lancées à kuaishou, représentant 99 % de l'utilisation de kuaishou. domaine du traitement vidéo. la puce d'inférence de puissance de calcul devrait être enregistrée au début de l'année prochaine.

selon liu li, la fenêtre du marché des puces d’ia est encore loin d’être fermée. face aux avantages des géants en termes de ressources, de fonds et d’écologie, les startups doivent faire des efforts dans des domaines verticaux et segmentés. la technologie lingchuan combine le traitement vidéo intelligent et la puissance de calcul d'inférence de l'ia, dans le but de réduire son coût d'inférence par jeton à 10 % de celui du nvidia h800.

▲liu li, co-fondateur et vice-président de lingchuan technology

aixin yuanzhi, qui cible à la fois les extrémités et les bords, a obtenu des résultats remarquables en termes de part de marché. liu jianwei estime que ces deux domaines réaliseront plus rapidement une boucle commerciale fermée. il a ajouté que la fabrication de puces ia finirait par rapporter de l'argent, mais que le calendrier des bénéfices réels serait affecté par des facteurs tels que les coûts de déploiement de l'ia, et que les entreprises devraient parvenir à l'auto-génération et à la boucle fermée dès que possible. à l'avenir, aixin yuanzhi explorera les scénarios de mise en œuvre de grands modèles du côté final et du côté périphérique.

les expéditions de produits d'aixin yuanzhi dans le domaine automobile sont très impressionnantes. liu jianwei a déclaré que cela est dû au fait que la technologie des puces sous-jacentes aux villes intelligentes et aux voitures est similaire. aixin yuanzhi a accumulé des technologies matures dans les villes intelligentes et est ensuite entré dans la production de masse. atteint bientôt. dans le même temps, la guerre des prix dans le domaine automobile va favoriser la division industrielle du travail, qui constitue une période d’opportunités.

▲liu jianwei, co-fondateur et vice-président d'aixin yuanzhi

quant à la manière dont les puces d'ia nationales peuvent rapidement trouver une niche écologique, liu jianwei a pris comme exemple la scène de développement profond d'aixin yuanzhi. il n'y a pratiquement aucune entreprise étrangère dans les villes intelligentes. dans le domaine de la conduite intelligente, nvidia se développe de 0 à . 1, et de 1 à 100, l’étape qui accorde le plus d’attention aux coûts est celle des opportunités commerciales nationales. ding yunfan a mentionné quatre éléments : une garantie d'approvisionnement stable et fiable, la rentabilité, des services d'assistance efficaces basés sur les besoins du client, ainsi que l'efficacité et la facilité d'utilisation. liu li estime que nous devrions approfondir les domaines verticaux et créer des solutions plus efficaces et optimisées que les puces à usage général.

en regardant vers l'avenir, liu jianwei prédit qu'au cours des 4 à 5 prochaines années, il y aura de grandes opportunités de développement tant du côté des appareils que du côté du cloud, une fois que le coût de mise en œuvre dans l'industrie aura été réduit, les données pourront générer une plus grande valeur. . liu li estime qu'à mesure que les applications d'ia entrent dans une période explosive, il y aura une forte demande de raisonnement du côté du cloud. ding yunfan a déclaré que la puissance de calcul haut de gamme est encore rare en chine, mais que la collaboration de la chaîne industrielle peut permettre un développement constant.

3. la construction de centres de calcul intelligents est en hausse : de nouvelles percées dans les domaines du gpu, du tpu domestique et du chiplet gagnent

lors de la séance sur les puces ia des centres de données tenue dans l'après-midi, yu mingyang, directeur de habana chine, a déclaré qu'au cours des trois dernières années, environ 50+ centres informatiques intelligents dirigés par le gouvernement ont été construits et plus de 60 sont en cours de planification et de construction. la construction de centres informatiques intelligents est progressivement passée des villes de premier rang aux villes de deuxième et troisième rang, et de celles dirigées par le gouvernement à celles dirigées par les entreprises, les exigences en matière de réduction des coûts et de cycle de retour sur investissement augmentent également progressivement.

selon son observation, le développement de grands modèles devient de plus en plus mature et la demande d'inférence continue de croître. le taux de croissance des puces d'inférence auto-développées par les principaux csp pourrait augmenter à l'avenir. le côté inférence.

la demande de formation sur de grands modèles à l'étranger sera toujours forte et la demande de puissance de calcul pour la formation de modèles nationaux est fondamentalement saturée, principalement grâce aux activités de réglage fin. pour soutenir le développement futur de l’ia, l’intégration de chipsets, de mémoire haute vitesse de grande capacité et de technologies d’interconnexion privée/générale à haut débit jouera un rôle clé.

▲ yu mingyang, responsable de habana chine

afin de résoudre le problème des silos de puissance de calcul hétérogènes pour les grands modèles, ding yunfan, vice-président de biren technology et architecte en chef des logiciels d'ia, a annoncé le lancement de la solution originale de formation collaborative gpu hétérogène de biren, hgct. c'est la première fois dans l'industrie qui prend en charge trois gpu hétérogènes ou plus pour former en collaboration le même grand modèle, c'est-à-dire qu'il prend en charge la formation mixte avec "nvidia + biren + gpu d'autres marques". l'efficacité de la communication est supérieure à 98 %. et l'efficacité de la formation de bout en bout atteint 90 ~ 95 %.

bi ren travaille avec des clients et des partenaires pour promouvoir conjointement l'écosystème hétérogène de formation collaborative sur gpu, notamment china telecom, zte, sensetime, state grid intelligence research institute, shanghai intelligent computing technology co., ltd., shanghai artificial intelligence laboratory, china institute of technologies de l'information et des communications, etc.

ses produits ont été déployés commercialement dans plusieurs clusters gpu de plusieurs kilo-cartes. biren a développé une solution globale à grand modèle qui intègre des logiciels et du matériel, une optimisation full-stack, une collaboration hétérogène et l'open source. pour la première fois, biren a réalisé l'expansion et la contraction élastiques automatiques de tâches parallèles 3d de grands modèles, maintenant le taux d'utilisation du cluster à près de 100 %. il a réussi à récupérer automatiquement 100 milliards de modèles de paramètres dans des clusters de 1 000 cartes en 10 minutes. , aucune panne pendant 4 jours et aucune interruption pendant 15 jours.

▲ding yunfan, vice-président de biren technology et architecte en chef des logiciels d'ia

zheng hanxun, co-fondateur et directeur technique de zhonghao xinying, a déclaré que les grands modèles d'ia d'aujourd'hui dépassent de loin la complexité de calcul et les besoins en puissance de calcul à tout moment de l'histoire de l'informatique, et nécessitent des puces spécialisées qui sont meilleures pour les calculs d'ia. comparé au gpu, conçu à l'origine pour le rendu et le traitement d'images en temps réel, le tpu est principalement conçu pour l'apprentissage automatique, les modèles d'apprentissage en profondeur et les calculs de réseaux neuronaux. il est hautement optimisé pour les opérations tensorielles et le débit d'une architecture de réseau systolique unique. l'efficacité du traitement a été grandement améliorée par rapport au gpu.

la puce « snap » développée par zhonghao xinying est la première puce ia à architecture tpu haute performance produite en série en chine. après un calcul complet des performances informatiques, du coût et de la consommation d'énergie, le coût de calcul unitaire ne représente que 50 % de celui des principaux gpu étrangers. . zheng hanxun estime que dans les étapes ultérieures du développement de modèles à grande échelle, le meilleur rapport coût-efficacité des clusters de kilo et de 10 000 ka sera crucial. l'interconnexion directe à haut débit entre jusqu'à 1 024 puces dans les puces setsana sera un atout. facteur essentiel dans la création de clusters informatiques à grande échelle. les performances peuvent dépasser de loin celles des gpu traditionnels.

▲zheng hanxun, co-fondateur et directeur technique de zhonghao xinying

selon stephen feng, responsable des produits de calcul ouvert accéléré chez inspur information, à mesure que l'échelle des paramètres des grands modèles augmente, le développement de l'ia générative est confronté à quatre défis majeurs : une évolutivité insuffisante des clusters, une consommation électrique élevée des puces, un déploiement difficile des clusters et un système faible. fiabilité. gros défi. inspur information a toujours été orientée application et centrée sur le système, stimulant la vitalité de l'innovation en matière d'ia générative grâce au système ouvert de kaiyuan.

en termes d'ouverture matérielle, nous avons établi des spécifications oam (open acceleration module) pour accélérer le déploiement en ligne d'une puissance de calcul avancée et prendre en charge l'accélération itérative de grands modèles et d'applications d'ia. en termes d'ouverture logicielle, grâce à la grande plate-forme de développement de modèles « yuannao qizhi » epai, nous créons une plate-forme complète de support de développement d'applications pour les entreprises grâce à des solutions de bout en bout, nous résolvons les problèmes d'illusion existant dans le domaine de base. grands modèles et résoudre les problèmes de développement d'applications. les problèmes de mise en œuvre tels que les processus complexes, les seuils élevés, la difficulté d'adaptation de plusieurs modèles et les coûts élevés accéléreront l'innovation et la mise en œuvre d'applications de grands modèles d'entreprise.

▲stephen feng, responsable des produits informatiques ouverts accélérés d'inspur information

qingcheng jizhi a été fondée en 2023, en se concentrant sur la piste ai infra. l'équipe a été incubée au sein du département d'informatique de l'université tsinghua et a accumulé plus de dix ans d'expérience dans l'optimisation intelligente de la puissance de calcul.

shi tianhui, co-fondateur de qingcheng jizhi, a expliqué que les systèmes informatiques nationaux de haute performance sont confrontés à des défis tels que des difficultés de récupération après panne et des performances médiocres. ils nécessitent la coopération de 10 systèmes logiciels de base, et qingcheng jizhi en fait déjà partie. eux. plus de la moitié des domaines ont des produits auto-développés.

à l'heure actuelle, qingcheng jizhi a maîtrisé l'accumulation de technologies full-stack, du compilateur de niveau inférieur au système informatique parallèle de niveau supérieur, a réalisé une couverture complète de l'écologie de l'industrie du grand modèle et a réalisé plusieurs optimisations d'inférence à haut débit de puces domestiques et grand public à grande échelle le modèle est rapidement transplanté et optimisé, et l'effet de calcul est considérablement amélioré. parmi eux, le grand système de formation de modèles « bagua furnace » développé pour les clusters de puissance de calcul nationaux à très grande échelle peut être étendu à l'échelle de 100 000 serveurs et est utilisé pour former des modèles avec 174 000 milliards de paramètres.

▲shi tianhui, co-fondateur de qingcheng jizhi

huang xiaobo, directeur du marketing technologique de xinhe semiconductor, a déclaré que la demande en puissance de calcul a augmenté de 60 000 fois au cours des 20 dernières années et pourrait atteindre 100 000 fois au cours des 10 prochaines années. le stockage et la bande passante d'interconnexion sont devenus des goulets d'étranglement majeurs en matière de développement. les systèmes intégrés à puces sont devenus une direction importante pour les percées dans les limitations de processus avancées et l'amélioration de la puissance de calcul haute performance dans l'ère post-moore. ils ont été largement utilisés dans les puces d'ia à grande puissance de calcul et les puces de commutation de réseau de cluster de puissance de calcul d'ia.

à cet égard, xinhe semiconductor fournit une plate-forme eda de simulation multiphysique unique pour la conception et le développement de systèmes intégrés chiplet. la plate-forme prend en charge la modélisation paramétrique des structures d'interconnexion dans les conceptions de processus traditionnelles. ses capacités de simulation sont 10 fois plus rapides que les autres plates-formes. elle n'occupe que 1/20 de la mémoire. elle intègre également une analyse de protocole hbm/ucie pour améliorer l'efficacité de la simulation. il a remporté de nombreux prix décernés par des leaders nationaux et étrangers. les fabricants de conception de puces de puissance de calcul ia l'utilisent pour accélérer la mise en œuvre de produits de systèmes intégrés chiplet à grande puissance de calcul.

▲huang xiaobo, directeur du marketing technologique de xinhe semiconductor

lors de la formation de grands modèles, l'infrastructure réseau représente 30 % du coût, soulignant l'importance de la performance du réseau. selon zhu jundong, co-fondateur de qimo et vice-président des produits et solutions, le réseau est devenu le goulot d'étranglement des performances informatiques intelligentes. la construction d'un réseau d'ia nécessite l'intégration de trois réseaux, à savoir l'interconnexion entre les réseaux de clusters, l'interconnexion au sein des armoires, et l'interconnexion au sein des puces.

les grands clusters informatiques intelligents nécessitent une interconnexion haute performance, et moderniser le rdma et les chipsets sont devenus des technologies clés. afin d'optimiser le rdma, la série principale d'accélération réseau ndsa de qimo est basée sur une architecture de streaming multicœur programmable et utilise un moteur de données hautes performances pour obtenir un flux de données hautes performances et une accélération flexible des données. le gpu link chiplet « ndsa-g2g » lancé par ge est basé sur une infrastructure ethernet et, grâce à un moteur de données hautes performances et à la technologie d'interface d2d, il peut atteindre une bande passante élevée de l'ordre du téraoctet du réseau scale-up, et ses performances sont comparables à celles du réseau scale-up. référence en matière de technologie d’interconnexion mondiale.

▲zhu jundong, co-fondateur de qimo et vice-président des produits et solutions

alphawave est une société qui fournit des solutions de conception ip, chiplet et asic pour les applications hpc, ia et réseaux haut débit. guo dawei, son directeur commercial principal pour la région asie-pacifique, a déclaré qu'en réponse aux problèmes rencontrés lors de la transmission de données, les produits alphawave ip ont un taux d'erreur binaire 2 fois inférieur à celui des produits concurrents. l'intégration et la vérification, et sont profondément intégrés à l'écosystème arm. ils peuvent également fournir un support complet sur le cycle de vie des soc des clients.

en termes de chipsets, alphawave aide les clients à raccourcir le cycle, à réduire les coûts et à améliorer le rendement et la vitesse d'itération. il est désormais le premier chiplet de connexion io multiprotocole du secteur, qui a été enregistré cette année. en termes de puces personnalisées, alphawave se concentre principalement sur les processus inférieurs à 7 nm et peut compléter l'ensemble du processus, des spécifications jusqu'à l'enregistrement en fonction des besoins du client. actuellement, il a réalisé plus de 375 enregistrements réussis, avec un dppm inférieur à. 25.

▲guo dawei, directeur commercial principal d'alphawave région asie-pacifique

conclusion : l'intelligence en aval est en plein essor et les puces d'ia sont confrontées à des opportunités historiques

sur la route vers le sujet ultime de l’intelligence artificielle générale, la forme des algorithmes d’ia continue de changer, et les puces d’ia emboîtent le pas. lorsque le gravier ancien rencontre l'intelligence artificielle du futur, la technologie et la sagesse de l'ingénierie fusionnent et entrent en collision. des puces d'ia au design exquis pénètrent dans les clusters informatiques et pénètrent dans des milliers de foyers, soutenant l'évolution de la vie basée sur le silicium.

des centres de calcul intelligents et de la conduite intelligente aux pc ia, aux téléphones mobiles ia et au nouveau matériel ia, la tendance de l'intelligence en aval a apporté une nouvelle vague d'opportunités historiques aux puces ia ancrant différents scénarios. le développement rapide d’algorithmes et d’applications d’ia générative continue de relever de nouveaux défis en matière de puissance de calcul. l'innovation technologique et la demande du marché favorisent à la fois l'expansion du marché des puces ia et la diversification du paysage concurrentiel des puces ia.

le 7 septembre, le global ai chip summit 2024 continuera de fournir des informations intensives : une session spéciale sur l'innovation de l'architecture des puces ia et une session spéciale sur les puces ia edge/end-side se tiendront sur le site principal, et le « 2024 china's les 20 meilleures entreprises de solutions de clusters informatiques intelligents » et « 2024. il existe deux listes des « 10 meilleures entreprises chinoises émergentes de puces d'ia » ; l'intelligent computing cluster technology forum et le china risc-v computing chip innovation forum se tiendront dans le sous-site ; .