nouvelles

Sommet chinois sur l'Open Computing 2024 : l'ouverture accélère le développement de l'IA et les spécifications des modules de puissance de calcul ouverts sont lancées

2024-08-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

China News Service, Pékin, 12 août (Yuan Jiawei Xia Bin) Le Sommet chinois sur l'informatique ouverte 2024 s'est récemment tenu à Pékin. La manière dont l'informatique ouverte accélère le développement de l'intelligence artificielle est devenue le thème central de la conférence. Lors de la réunion, la spécification « Open Computing Module (OCM) » a été officiellement lancée. Le premier groupe de membres comprend le China Electronics Standards Institute, Baidu, Xiaohongshu, Inspur Information, Lenovo, Super Fusion, Intel, AMD et d'autres institutions et entreprises. Il s'agit de la première spécification nationale de conception de modules informatiques pour serveurs. Les industries en amont et en aval espèrent établir conjointement des unités de modules de puissance de calcul standardisées, construire un écosystème industriel de coopération ouverte, d'innovation intégrée et stimuler le développement innovant de la technologie de l'intelligence artificielle.

Légende : La spécification « Open Computing Module (OCM) » a été officiellement lancée. Photographie : Photo fournie par l'organisateur.

Ce sommet est organisé conjointement par la communauté informatique ouverte OCP et l'organisation de normes ouvertes OCTC (China Electronics Industry Standardization Technology Association Open Computing Standards Working Committee). Avec le thème « Collaboration ouverte : collaboration, intelligence, innovation », il se concentre sur les données. infrastructure du centre, intelligence artificielle, innovation intelligente, écologie informatique ouverte, développement de l'informatique verte, systèmes ouverts et CXL et d'autres sujets, notamment Baidu, Alibaba Cloud, Banque industrielle et commerciale de Chine, ByteDance, Samsung, Inspur Information, NVIDIA, Flextronics, Solidigm, Intel, 21Vianet, etc. Des entreprises, ainsi que plus d'un millier d'ingénieurs informatiques et de praticiens de centres de données ont participé à la conférence.

Le développement rapide de l'intelligence artificielle générative a donné naissance à des scénarios d'applications intelligentes plus riches, et la prospérité des applications intelligentes nécessitera inévitablement plus de puissance de calcul pour prendre en charge le raisonnement. En tant que puissance de calcul plus courante et plus facile à obtenir, la puissance de calcul générale une fois que vous l'avez. Grâce à la puissance de calcul de l'IA, cela accélérera évidemment considérablement le processus d'intelligence.

Zhao Shuai, directeur général d'Inspur Information Server Product Line, a déclaré sans ambages : « Pas seulement les puces d'IA, tous les calculs sont de l'IA, et la puissance de calcul générale doit également avoir des capacités de calcul d'IA. Cependant, l'itération actuelle des processeurs CPU est également très rapide. et les itinéraires techniques des différentes plates-formes sont différents. Avec plus de dix types de puces, des centaines de serveurs devront peut-être être développés.

Cependant, les normes actuelles des protocoles CPU pour différentes architectures telles que x86, ARM, RISC-V, etc. ne sont pas unifiées, ce qui entraîne d'énormes efforts fastidieux dans le développement du matériel, l'adaptation du micrologiciel, les tests de composants, etc. Afin de mieux s'adapter aux caractéristiques de calcul hautement parallèles de l'inférence IA, la bande passante d'interconnexion du bus CPU, la bande passante et la capacité de la mémoire doivent également être spécialement optimisées, ce qui entraîne une augmentation continue de la consommation électrique du système, de la vitesse du bus et de la densité de courant... Le La superposition de plusieurs facteurs rend le cycle de conception et de développement des systèmes de puissance de calcul long et coûteux.

Dans le cadre de la tendance à la diversification des processeurs, la manière de compléter rapidement l'innovation du processeur dans le système informatique afin qu'elle puisse être appliquée à la charge d'inférence de l'IA est devenue un maillon clé pour atténuer la rareté actuelle de la puissance de calcul de l'IA et promouvoir le développement de l'intelligence artificielle.

À cette fin, la spécification Open Computing Module (OCM) a été officiellement lancée lors de la réunion. Elle vise à construire la plus petite unité de calcul avec un processeur et une mémoire comme noyau, et est compatible avec les processeurs multigénérations de puces multi-architectures telles que. x86 et ARM pour faciliter les utilisateurs selon leurs applications Les scénarios sont flexibles et rapides à combiner.

Le lancement de la spécification OCM vise à établir une unité de module de puissance de calcul standardisée basée sur le processeur, en unifiant l'interconnexion externe à haut débit, le protocole de gestion, l'interface d'alimentation, etc. des unités de puissance de calcul des différents processeurs. compatibilité des puces de processeur de différentes architectures et construction d'un processeur. La base de puissance de calcul unifiée résout les défis écologiques du processeur et permet aux clients de faire correspondre de manière flexible et rapide la plate-forme de puissance de calcul la plus appropriée en fonction de divers scénarios d'application tels que l'intelligence artificielle, le cloud computing et les grands. données et favorise le développement rapide et de haute qualité de l'industrie de la puissance de calcul. La formulation de normes ouvertes OCM peut offrir aux utilisateurs des options de puissance de calcul plus polyvalentes, écologiques, efficaces, sûres et fiables.

En outre, l'intelligence artificielle générative reconstruit l'infrastructure des centres de données, mettant en avant des exigences plus élevées en matière d'efficacité informatique, de capacité et de performances de stockage, de solutions réseau, de gestion de la planification des ressources, de contrôle et de gestion de l'efficacité énergétique et d'échelle omnidirectionnelle (amélioration des performances et extension). Les capacités sont devenues au cœur de la construction d’une infrastructure d’IA avancée. Lors de ce sommet, un grand nombre de technologies et de solutions de produits innovantes, notamment la technologie CXL, l'architecture réseau orientée IA et le premier disque SSD PCIe5.0 TLC à 16 canaux, amélioreront encore les capacités d'évolutivité du centre de données.

Zhao Shuai estime que l'informatique ouverte revêt une grande importance et une grande valeur à l'ère de l'informatique intelligente. L'ouverture doit être utilisée pour relever les défis de la diversité des puissances de calcul, et l'ouverture doit également être utilisée pour promouvoir l'échelle de la puissance de calcul actuelle. La mise à l'échelle informatique est un processus de développement itératif et rapide de mise à l'échelle (amélioration des performances d'un seul système) et de mise à l'échelle (expansion à l'échelle d'un cluster) coexistant. À ce stade, les modules d'accélération ouverts et les réseaux ouverts réalisent l'échelle de la puissance de calcul, les solutions de micrologiciels ouverts réalisent l'échelle de la gestion, et les normes ouvertes et l'écologie ouverte réalisent l'échelle de l'infrastructure. À l'avenir, l'innovation ouverte sera utilisée pour accélérer le développement. système de puissance de calcul dans toutes les directions, traitant de la loi de mise à l'échelle des grands modèles.

La conférence a également publié dix innovations majeures dans le domaine de l'informatique ouverte, notamment des directives de déploiement de centres de données à très grande échelle, des exigences techniques de conception de cartes accélératrices d'intelligence artificielle refroidies par liquide, etc., reflétant davantage la vitalité innovante de l'informatique ouverte dans le domaine des centres de données.

À l'ère de l'intelligence, les grands modèles reconstruisent l'infrastructure de l'IA. Les centres de données sont confrontés à des défis d'innovation à l'échelle omnidirectionnelle en matière de puissance de calcul, de réseau, de stockage, de gestion et d'efficacité énergétique. Il est nécessaire de construire une plate-forme de collaboration ouverte mondiale et de travailler ensemble pour les résoudre. Les problèmes majeurs ci-dessus. L'optimisation complète de l'infrastructure de l'intelligence artificielle offre des possibilités illimitées pour le développement de l'IA. (sur)

[Editeur : Cao Zijian]
Rapport/Commentaires