nouvelles

dpu « la troisième puce principale » : les trois prochaines années sont la période de fenêtre pour la mise en œuvre commerciale

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

en tant que troisième puce principale des centres de données après le cpu et le gpu, le dpu a continué de gagner en popularité ces dernières années.
le dpu, c'est-à-dire le processeur de données, dispose de puissantes capacités de traitement réseau, ainsi que de fonctions de sécurité, de stockage et de déchargement réseau, qui peuvent libérer la puissance de calcul du processeur et effectuer des tâches de traitement de données telles que le traitement du protocole réseau, le cryptage et le décryptage des données. et la compression des données pour lesquelles le cpu n'est pas bon. il gère, étend et planifie également diverses ressources séparément, c'est-à-dire qu'il gère les tâches que « le cpu ne peut pas bien faire et le gpu ne peut pas faire » pour réduire les coûts et l'efficacité du centre de données. amélioration.
à l'ère de l'ia, la quantité de données que les centres informatiques intelligents doivent traiter a explosé. le dpu peut libérer la puissance de calcul efficace des centres informatiques intelligents et résoudre le problème de la réduction des coûts et de l'amélioration de l'efficacité de l'infrastructure. augmentent progressivement.
three us in one, une solution plus adaptée à l’ère de l’informatique intelligente
"le concept de dpu a été mis en avant par nvidia il y a quatre ans. après avoir acquis la société israélienne mellanox, nvidia est devenu le premier fournisseur de solutions complètes pour centres de données incluant cpu, gpu et dpu xinqi. dans une interview exclusive avec china business news." , le fondateur de yuan, lu sheng, a déclaré que xinqiyuan était l'un des premiers fabricants nationaux engagés dans la recherche et le développement de dpu, remontant à 2018. à cette époque, il s'appelait également smartnic.
"dans le passé, les cartes réseau traditionnelles assuraient des fonctions de transmission réseau. plus tard, les cartes réseau intelligentes sont nées, qui ont progressivement évolué pour devenir dpu il y a quatre ans. zhang yu, vice-président senior de zhongke yushu (beijing) technology co., ltd., qui se concentre sur la recherche, le développement et la conception de puces informatiques intelligentes, a déclaré à first finance.
en 2020, la stratégie produit dpu publiée par nvidia l'a positionné comme la « troisième puce principale » du centre de données après le cpu et le gpu, ce qui a depuis fait exploser le concept dpu.
aujourd'hui, le dpu est devenu un processeur spécialisé émergent dans le centre de données, spécialement conçu pour accélérer les tâches de sécurité, de réseau et de stockage dans le centre de données, fournissant ainsi de la puissance pour des scénarios informatiques gourmands en données à large bande passante et à faible latence. le rôle principal du dpu est de prendre en charge les tâches de réseau, de stockage, de sécurité et de gestion initialement gérées par le cpu, libérant ainsi les ressources du cpu et améliorant la sécurité des données et la protection de la confidentialité.
"les solutions de centre de calcul intelligent de nvidia sont en fait intégrées en trois u. le serveur dgx a100 de nvidia il y a trois ans et la série dgx gh200 qui a suivi incluent tous un cpu, un gpu et un dpu. bien entendu, le dpu contient également des cartes réseau intelligentes comme rdma, qui peuvent en fait être classés comme dpu. ils sont essentiellement la même chose. donc, de ce point de vue, le leader actuel de l'industrie, ou la direction généralement acceptée, est d'ajouter des processeurs dans les centres de calcul intelligents, "gpu et dpu fonctionnent ensemble". que les solutions générales de centre de données sont davantage un processeur, un stockage et un réseau. dans certains scénarios cloud natifs, un traitement réseau de données à faible latence et à haut débit est également requis, et les scénarios informatiques intelligents nécessitent des exigences de performances de traitement plus élevées.
« si le cpu est comparé à un cerveau, utilisé pour le contrôle global, alors le gpu ressemble plus à un muscle, utilisé pour fournir une puissance de calcul parallèle solide et abondante, tandis que le dpu ressemble davantage à des vaisseaux sanguins et des nerfs, qui transfèrent les données qui le gpu doit calculer, transporté vers le serveur via le dpu pour compléter l'échange d'instructions de contrôle et la conversion de protocole", a déclaré zhang yu.
« la coopération de plusieurs pu est en fait une mise à niveau de l'architecture informatique globale. de l'architecture basée sur cpu à usage général dans le passé à l'architecture informatique basée sur accélérateur, la rentabilité de la solution informatique globale est améliorée grâce à la coopération. de cpu, gpu, dpu, npu, etc. » zhang yu a déclaré : « à l'heure actuelle, en termes de technologie, le dpu est progressivement devenu mature, et ses limites sont également relativement matures, le cryptage et le décryptage de la sécurité du réseau, la confiance zéro et le réseau. le déchargement est fondamentalement devenu les fonctions que dpu peut assurer de manière stable. »
réduire les investissements en capital et la consommation d'énergie, avec un certain rapport coût-performance
en tant que moteur de déchargement du cpu, le rôle le plus direct du dpu est de prendre en charge les services de la couche infrastructure tels que la virtualisation du réseau et le pooling de ressources matérielles, et de libérer la puissance de calcul du cpu vers les applications de couche supérieure. libérez la puissance de calcul du centre de calcul intelligent et améliorez le rapport d'efficacité énergétique.
"nvidia avait précédemment admis que l'efficacité de la puce de puissance de calcul de son serveur d'ia générative de génération précédente ne représentait que 40 % de la capacité de conception. nous l'avons mesurée à seulement plus de 30 %. cela signifie que la majeure partie de la puissance de calcul est inactive. le principal la raison en est que dans le cluster, il faut du temps pour attendre que les variables intermédiaires générées par le calcul terminent la synchronisation des données. la capacité du canal réseau limite la limite supérieure de la base de puissance de calcul, et c'est précisément là que réside la valeur réelle de. le dpu ment. cela a repoussé le dpu au premier plan.
à l'ère de l'ia où la quantité de données explose, le dpu peut non seulement aider à construire une nouvelle base de puissance de calcul avec une faible latence, une large bande passante et des chemins de données à haut débit, mais peut également planifier, gérer et gérer en toute sécurité et efficacement. connectez ces ressources cpu et gpu distribuées, libérant ainsi la puissance de calcul effective du centre de calcul intelligent. par conséquent, le déploiement de dpu peut réduire l’investissement ponctuel (dépenses en capital) du centre de données. les données de cisco (cisco) montrent que grâce à la technologie de virtualisation, les entreprises peuvent réduire le nombre de serveurs jusqu'à 40 % tout en améliorant l'utilisation des ressources.
les dpu, quant à eux, améliorent l’efficacité énergétique des centres de données en accélérant les tâches de réseau, de sécurité et de stockage grâce à du matériel dédié.
lu sheng a présenté que, en prenant comme exemple le scénario d'application du sd-wan de china mobile dans la province du zhejiang, « la solution logicielle et matérielle intégrée créée par la carte réseau xinqiyuan dpu réalise le déchargement des services de sécurité du réseau. par rapport au logiciel pur traditionnel sd - solution de réseau wan, l'efficacité d'une seule machine a augmenté de 6 à 8 fois, et le projet global a également permis d'économiser 80 % des investissements de déploiement de serveurs et des coûts logiciels annuels, réduisant considérablement les investissements en capex en outre, en raison du déploiement réduit des machines, de la capacité du centre de données ; il réduit la consommation d’énergie et devrait permettre d’économiser plus de 3 millions de kilowattheures d’électricité par an, tout en réduisant considérablement les coûts d’exploitation du centre de données.
en termes de coût, china business news a appris que les coûts de r&d et de production du dpu sont relativement élevés, en particulier lors de l'utilisation de processus avancés, de sorte que le prix est plus élevé. cependant, en raison du déploiement de solutions dpu, cela ne peut pas seulement en réduire le nombre. de l'équipement du serveur, mais également permettre les opérations ultérieures. la consommation d'énergie est économisée pendant le processus de calcul, de sorte que le coût global du système reste rentable, mais il doit également être discuté en fonction de scénarios et d'applications spécifiques.
les trois prochaines années sont une période critique pour la mise en œuvre commerciale
cependant, l’augmentation actuelle de la pénétration du dpu se heurte toujours à des résistances.
une personne concernée de zhongke chuangxing, une institution de capital-risque qui se concentre sur les investissements précoces dans le domaine des technologies dures, a déclaré à china business news que dpu, en tant qu'architecture de virtualisation pour la collaboration logicielle et matérielle, doit être efficacement connecté à la pile logicielle de virtualisation. fonctionnant dans le cpu. dans le même temps, la conception matérielle du dpu doit prendre en compte la compatibilité et l'intégration avec les systèmes existants. deuxièmement, l'architecture et les interfaces du dpu n'ont pas encore formé une norme unifiée et il existe des différences entre les produits des différents fabricants. ce qui pose des défis aux utilisateurs en termes d'utilisation, de maintenance et de mises à niveau ; en outre, l'écosystème logiciel n'est pas encore mature et manque d'outils de développement complets, de pilotes et de support du système d'exploitation, "mais il y a déjà des entreprises qui le font".
lu sheng a déclaré que le dpu nécessite un ensemble d'instructions dédié et efficace, qui constitue également sa principale compétitivité. les deux tiers restants du travail consistent à construire un écosystème autour de l'ensemble d'instructions. la construction écologique est le principal obstacle de l'industrie du dpu. maturité de la construction écologique détermine la vitesse de commercialisation du produit.
dans l'ensemble, le secteur des dpu est toujours dominé par des sociétés étrangères. les trois géants nvidia, broadcom et intel détiennent une part relativement élevée. les sociétés technologiques telles qu'amazon et microsoft suivent également le mouvement. au niveau national, de grandes entreprises telles que china mobile et alibaba développent également des dpu dédiés, et des start-ups telles que xinqiyuan, zhongke yushu, dayu zhixin, etc. ont également obtenu des résultats ou des progrès correspondants.
« le développement de la technologie dpu au pays et à l'étranger est au même stade, mais les entreprises étrangères ont une accumulation plus profonde. à mon avis, l'industrie dpu a en fait progressivement évolué vers le stade de maturité et de mise en œuvre rapide. les pays étrangers pourraient aller plus tôt et plus vite. que les nationaux ", a déclaré zhang yu.
en termes de commercialisation du dpu, seuls les grands fabricants nationaux de cloud tels que huawei, alibaba et zte, ainsi que quelques nouvelles forces du dpu telles que xinqiyuan et zhongke yushu, ont atteint une utilisation commerciale. l'académie des technologies de l'information et des communications prévoit que le taux de pénétration du dpu dans les centres de données de mon pays atteindra 12,7 % en 2025.
zhang yu estime qu'au stade actuel du dpu, ce qui est plus important est l'intégration profonde avec le cloud au niveau de la couche iaas, en particulier comment fournir aux clients des solutions iaas purement logicielles complètes, pratiques et transparentes, afin qu'ils puissent migrer en douceur vers utilisateurs dpu pour prendre en charge cette solution cloud à haute efficacité énergétique.
"la migration dans ce domaine nécessite des efforts conjoints de l'industrie et durera longtemps, même pendant des années." zhang yu a déclaré : "amazon cloud évolue plus rapidement. ils disposent de solides capacités de r&d et ont réalisé l'iaas sur dpu. mais pour la plupart des entreprises nationales, le rythme ne sera pas trop élevé et ils pourront être utilisés de manière transparente dès les points les plus douloureux, tels que la désinstallation d'ovs, la mise à niveau du réseau, etc.
« la commercialisation du dpu repose non seulement sur le domaine iaas des centres de données traditionnels, mais inclut également la sécurité des réseaux, le stockage haute performance, les communications en cluster et de nombreux autres secteurs et domaines. lu sheng a déclaré que xinqiyuan était profondément impliqué dans le « dpu ». pour la sécurité" depuis de nombreuses années. direction, le dpu est appliqué à des produits tels que les pare-feu et les passerelles de sécurité. il est maintenant entré dans la gamme de produits de sécurité réseau sangfor et est devenu une carte d'extension standard, résolvant des problèmes de l'industrie tels que le manque de processeur intel. capacités de traitement des flux d’éléphants.
"à en juger par la tendance actuelle du développement de l'industrie, si le développement technologique répond aux attentes, il y aura une explosion entre 2025 et 2027." la personne concernée de zhongke chuangxing mentionnée ci-dessus a déclaré que la raison en est qu'avec le développement de l'économie numérique, l'ia. et l'industrie du cloud computing avec le développement, le marché des serveurs va inaugurer une croissance, en particulier dans les domaines de la finance, du gouvernement et des utilisateurs expérimentés, qui nécessitent non seulement un grand nombre de dpu pour traiter les données et améliorer l'efficacité informatique, mais nécessitent également des dpu. pour profiter de la sécurité.
« les puces dpu ont en effet été utilisées à grande échelle, et le taux de croissance actuel est de 20 à 30 % par an. cependant, la caractéristique industrielle du dpu est qu'il doit maintenir la stabilité et fonctionner de manière stable sur le cluster. pendant plusieurs mois avant d'étendre le cluster. " zhang yu a déclaré , et plus important encore, sur la base du développement de l'industrie nationale de l'information et de l'innovation, ces deux ou trois années seront une période très critique, et c'est une fenêtre de temps critique que chaque le fabricant de dpu doit comprendre.
« le dpu n'est pas encore un produit standardisé. le processus de commercialisation et d'expansion des volumes nécessite un peaufinage en profondeur en fonction de la demande du marché et de différents scénarios d'application. il nécessite la collaboration des fabricants en amont et en aval, à partir de projets pilotes à petite échelle de quelques centaines. "des milliers de kilomètres sont parcourus en faisant de petits pas." lu sheng a déclaré que la commercialisation du dpu nécessite les efforts conjoints de tous les partenaires industriels pour renforcer la confiance et la coopération écologiques mutuelles. avancer ensemble sur la voie de la commercialisation du cpu+gpu+dpu domestique intégré 3u.
(cet article provient de china business news)
rapport/commentaires