nachricht

„der dritte hauptchip“ dpu: die nächsten drei jahre sind der zeitraum für die kommerzielle umsetzung

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

als dritter hauptchip in rechenzentren nach cpu und gpu erfreut sich die dpu in den letzten jahren immer größerer beliebtheit.
dpu, also ein datenprozessor, verfügt über leistungsstarke netzwerkverarbeitungsfunktionen sowie sicherheits-, speicher- und netzwerkauslagerungsfunktionen, die die rechenleistung der cpu freigeben und datenverarbeitungsaufgaben wie netzwerkprotokollverarbeitung, datenverschlüsselung und -entschlüsselung erledigen können. und datenkomprimierung, in der die cpu nicht gut ist, verwaltet, erweitert und plant auch verschiedene ressourcen separat, d verbesserung.
im zeitalter der ki ist die datenmenge, die intelligente rechenzentren verarbeiten müssen, explodiert. dpu kann die effektive rechenleistung intelligenter rechenzentren freisetzen und das problem der kostensenkung und effizienzsteigerung der infrastruktur lösen nehmen nach und nach zu.
drei wir in einem, eine lösung, die besser für das zeitalter des intelligenten computings geeignet ist
„das dpu-konzept wurde vor vier jahren von nvidia hochgelobt. nach der übernahme des israelischen unternehmens mellanox wurde nvidia zum branchenweit ersten anbieter kompletter rechenzentrumslösungen, die cpu, gpu und dpu umfassen.“ laut yuan-gründer lu sheng war xinqiyuan einer der ersten inländischen hersteller, der sich mit dpu-forschung und -entwicklung beschäftigte, und zwar seit 2018. damals hieß das unternehmen auch smartnic.
„früher trugen herkömmliche netzwerkkarten netzwerkübertragungsfunktionen. später wurden intelligente netzwerkkarten geboren, die sich vor vier jahren schrittweise zu dpu entwickelten.“ zhang yu, senior vice president von zhongke yushu (beijing) technology co., ltd., das unternehmen konzentriert sich auf die forschung, entwicklung und das design intelligenter computerchips, sagte first finance.
im jahr 2020 positionierte die von nvidia veröffentlichte dpu-produktstrategie sie als „dritten hauptchip“ im rechenzentrum nach der cpu und der gpu, was das dpu-konzept seitdem zur explosion gebracht hat.
heute ist die dpu zu einem aufstrebenden spezialprozessor im rechenzentrum geworden, der speziell dafür entwickelt wurde, sicherheits-, netzwerk- und speicheraufgaben im rechenzentrum zu beschleunigen und leistung für datenintensive rechenszenarien mit hoher bandbreite und geringer latenz bereitzustellen. die kernaufgabe der dpu besteht darin, netzwerk-, speicher-, sicherheits- und verwaltungsaufgaben zu übernehmen, die ursprünglich von der cpu übernommen wurden, wodurch cpu-ressourcen freigegeben und die datensicherheit und der datenschutz verbessert werden.
„die intelligenten rechenzentrumslösungen von nvidia sind tatsächlich drei he integriert. der dgx a100-server von nvidia vor drei jahren und die nachfolgende dgx gh200-serie umfassen alle cpu, gpu und dpu. natürlich enthält die dpu auch. es gibt intelligente netzwerkkarten wie rdma, die sie können tatsächlich als dpus klassifiziert werden. aus dieser perspektive besteht die allgemein akzeptierte richtung darin, cpus und dpus zusammenzuarbeiten dass allgemeine rechenzentrumslösungen mehr cpu plus speicher plus netzwerk erfordern. in einigen cloud-nativen szenarien ist auch eine datennetzwerkverarbeitung mit geringer latenz und hohem durchsatz erforderlich, und intelligente computerszenarien erfordern höhere anforderungen an die netzwerkverarbeitung.
„wenn man die cpu mit einem gehirn vergleicht, das für die gesamtsteuerung dient, dann ist die gpu eher wie ein muskel, der dazu dient, solide und reichlich parallele rechenleistung bereitzustellen, während die dpu eher wie blutgefäße und nerven ist, die die daten übertragen.“ „die gpu muss berechnen und über die dpu zum server transportieren, um den austausch von steueranweisungen und die protokollkonvertierung abzuschließen“, sagte zhang yu.
„die zusammenarbeit mehrerer pus stellt tatsächlich eine verbesserung der gesamten computerarchitektur dar. von der allzweck-cpu-basierten architektur in der vergangenheit bis zur beschleunigerbasierten computerarchitektur wird die kosteneffizienz der gesamten computerlösung durch die zusammenarbeit verbessert.“ von cpu, gpu, dpu, npu usw. „zhang yu sagte: „derzeit ist die dpu in bezug auf die technologie allmählich ausgereift, und ihre grenzen sind auch relativ ausgereift. netzwerksicherheitsverschlüsselung und -entschlüsselung, nullvertrauen und netzwerk.“ offloading ist im grunde zu den funktionen geworden, die dpu stabil ausführen kann.“
reduzieren sie die investitionsinvestitionen und den energieverbrauch bei einer bestimmten kostenleistung
als auslagerungsmotor der cpu besteht die direkteste rolle der dpu darin, dienste der infrastrukturschicht wie netzwerkvirtualisierung und hardware-ressourcen-pooling zu übernehmen und die rechenleistung der cpu an anwendungen der oberen schicht weiterzugeben setzen sie die rechenleistung des intelligenten rechenzentrums frei und verbessern sie die energieeffizienzquote.
„nvidia hat zuvor zugegeben, dass die effizienz des rechenleistungschips seines generativen ki-servers der vorherigen generation nur 40 % der designkapazität betrug. wir haben gemessen, dass sie nur mehr als 30 % beträgt. das bedeutet, dass der großteil der rechenleistung im leerlauf ist. das wichtigste.“ der grund dafür ist, dass es einige zeit dauert, bis die durch die berechnung generierten zwischenvariablen die datensynchronisierung abgeschlossen haben. die kapazität des netzwerkkanals begrenzt die obergrenze der rechenleistungsbasis, und genau hier liegt der tatsächliche wert die dpu lügt. dies hat die dpu wieder in den vordergrund gerückt.
im ki-zeitalter, in dem die datenmengen explodieren, kann dpu nicht nur zum aufbau einer neuen rechenleistungsbasis mit geringer latenz, großer bandbreite und hochgeschwindigkeitsdatenpfaden beitragen, sondern auch sicher und effizient planen, verwalten und verwalten verbinden sie diese verteilten cpu- und gpu-ressourcen und geben sie so die effektive rechenleistung des intelligenten rechenzentrums frei. daher kann der einsatz von dpu die einmalige investitionsinvestition (investitionsausgabe) des rechenzentrums reduzieren. daten von cisco (cisco) zeigen, dass unternehmen durch virtualisierungstechnologie die anzahl ihrer server um bis zu 40 % reduzieren und gleichzeitig die ressourcennutzung verbessern können.
dpus hingegen verbessern die energieeffizienz von rechenzentren, indem sie netzwerk-, sicherheits- und speicheraufgaben durch dedizierte hardware beschleunigen.
lu sheng stellte vor, dass am beispiel des anwendungsszenarios von china mobiles sd-wan in der provinz zhejiang „die integrierte software- und hardwarelösung der dpu-netzwerkkarte von xinqiyuan die auslagerung von netzwerksicherheitsdiensten realisiert. im vergleich zur herkömmlichen reinen software-sd – durch die wan-netzwerklösung wurde die effizienz einzelner maschinen um das 6- bis 8-fache gesteigert, und das gesamtprojekt sparte außerdem 80 % der investitionen in die serverbereitstellung und die jährlichen softwarekosten ein, wodurch die capex-investitionen aufgrund der geringeren maschinenbereitstellung erheblich reduziert wurden es reduziert den energieverbrauch und spart schätzungsweise mehr als 3 millionen kilowattstunden strom pro jahr ein, während gleichzeitig die betriebskosten des rechenzentrums erheblich gesenkt werden.“
in bezug auf die kosten erfuhr china business news, dass die f&e- und produktionskosten von dpu relativ hoch sind, insbesondere bei verwendung fortschrittlicher prozesse, sodass der preis aufgrund des einsatzes von dpu-lösungen nicht nur sinken kann von servergeräten ermöglichen, aber auch folgevorgänge ermöglichen, wird bei der berechnung der energieverbrauch eingespart, so dass die gesamtsystemkosten immer noch kosteneffektiv sind, sie müssen jedoch auch anhand spezifischer szenarien und anwendungen diskutiert werden.
die nächsten drei jahre sind eine kritische zeit für die kommerzielle umsetzung
der derzeitige anstieg der dpu-penetration stößt jedoch immer noch auf widerstand.
eine relevante person von zhongke chuangxing, einer risikokapitalinstitution, die sich auf frühe investitionen im bereich der hard-technologie konzentriert, sagte gegenüber china business news, dass dpu als virtualisierungsarchitektur für die software- und hardware-zusammenarbeit effektiv mit dem virtualisierungs-software-stack verbunden werden muss gleichzeitig muss das hardware-design der dpu die kompatibilität und integration mit vorhandenen systemen berücksichtigen. zweitens haben die architektur und schnittstellen der dpu noch keinen einheitlichen standard gebildet, und es gibt unterschiede bei produkten verschiedener hersteller. was für benutzer herausforderungen bei der nutzung, wartung und upgrades mit sich bringt; außerdem ist das software-ökosystem noch nicht ausgereift und es mangelt an vollständigen entwicklungstools, treibern und betriebssystemunterstützung, „aber es gibt bereits unternehmen, die dies tun.“
lu sheng sagte, dass die dpu einen dedizierten und effizienten befehlssatz erfordert, der auch ihre kernkompetenz darstellt. die verbleibenden zwei drittel der arbeit bestehen darin, ein ökosystem rund um den befehlssatz aufzubauen reifegrad des ökologischen bauens bestimmt die geschwindigkeit der produktvermarktung.
insgesamt wird die dpu-branche immer noch von ausländischen unternehmen dominiert. die drei giganten nvidia, broadcom und intel haben ebenfalls einen relativ hohen anteil. technologieunternehmen wie amazon und microsoft folgen diesem beispiel. im inland entwickeln auch große unternehmen wie china mobile und alibaba dedizierte dpus, und start-ups wie xinqiyuan, zhongke yushu, dayu zhixin usw. haben ebenfalls entsprechende ergebnisse oder fortschritte erzielt.
„die entwicklung der dpu-technologie im in- und ausland befindet sich im gleichen stadium, aber ausländische unternehmen haben eine tiefere anhäufung. meiner meinung nach hat sich die dpu-branche tatsächlich allmählich in richtung reifegrad und schneller implementierung bewegt. das ausland könnte früher und schneller vorankommen.“ als inländische.“, sagte zhang yu.
im hinblick auf die dpu-kommerzialisierung haben derzeit nur große inländische cloud-hersteller wie huawei, alibaba und zte sowie einige neue dpu-kräfte wie xinqiyuan und zhongke yushu eine kommerzielle nutzung erreicht. die akademie für informations- und kommunikationstechnologie prognostiziert, dass die dpu-penetrationsrate der rechenzentren meines landes im jahr 2025 12,7 % erreichen wird.
zhang yu glaubt, dass in der aktuellen dpu-phase die tiefe integration mit der cloud auf der iaas-ebene wichtiger ist, insbesondere die frage, wie kunden umfassende, bequeme und transparente reine software-iaas-lösungen bereitgestellt werden können, damit sie problemlos darauf migrieren können dpu unterstützt diese äußerst energieeffiziente cloud-lösung.
„die migration dieses bereichs erfordert gemeinsame anstrengungen der branche und wird noch lange, sogar noch jahre dauern.“ zhang yu sagte: „amazon cloud entwickelt sich schneller. sie verfügen über starke forschungs- und entwicklungskapazitäten und haben iaas auf dpu abgeschlossen. aber.“ für die meisten inländischen unternehmen wird das tempo nicht zu hoch sein, und sie können von den problematischsten punkten aus, wie der deinstallation von ovs, netzwerk-upgrades usw., transparent verwendet werden.
„die kommerzialisierung von dpu stützt sich nicht nur auf den iaas-bereich traditioneller rechenzentren, sondern umfasst auch netzwerksicherheit, hochleistungsspeicher, clusterkommunikation und viele andere branchen und bereiche.“ seit vielen jahren wird die dpu in produkten wie firewalls und sicherheits-gateways eingesetzt. mittlerweile ist sie teil der netzwerksicherheitsproduktlinie von sangfor und hat sich zu einer standard-erweiterungskarte entwickelt, die branchenprobleme wie den mangel an intel-cpus löst elefantenstrom-verarbeitungsfunktionen.
„gemessen am aktuellen entwicklungstrend der branche wird es von 2025 bis 2027 eine explosion geben, wenn die technologieentwicklung den erwartungen entspricht.“ und cloud-computing-industrie mit der entwicklung wird der servermarkt ein wachstum einleiten, insbesondere in den bereichen finanzen, regierung und power-user, die nicht nur eine große anzahl von dpus zur datenverarbeitung und verbesserung der recheneffizienz benötigen, sondern auch dpus benötigen um die sicherheit auszunutzen.
„dpu-chips werden tatsächlich in großem umfang eingesetzt, und die aktuelle wachstumsrate beträgt 20 bis 30 % pro jahr. das branchenmerkmal von dpu besteht jedoch darin, dass es stabil bleiben und stabil im cluster laufen muss.“ für mehrere monate, bevor der cluster erweitert wird“, sagte zhang yu. und was noch wichtiger ist: basierend auf der entwicklung der inländischen informations- und innovationsbranche werden diese zwei oder drei jahre eine sehr kritische zeit sein, und es ist ein kritisches zeitfenster, das jeder der dpu-hersteller muss es begreifen.
„dpu ist noch kein standardisiertes produkt. der prozess der kommerzialisierung und volumenexpansion erfordert eine gründliche feinabstimmung auf der grundlage der marktnachfrage und unterschiedlicher anwendungsszenarien. es erfordert die zusammenarbeit vor- und nachgelagerter hersteller, angefangen bei kleinen pilotprojekten von einigen hundert.“ teile bis hin zum groß angelegten einsatz von zehntausenden von teilen. „tausende meilen werden durch kleine schritte erreicht.“ lu sheng sagte, dass die kommerzialisierung von dpu die gemeinsamen anstrengungen aller industriepartner erfordert, um das gegenseitige ökologische vertrauen und die zusammenarbeit zu stärken gemeinsam auf dem weg der kommerzialisierung der integrierten 3u-inlands-cpu+gpu+dpu voranschreiten.
(dieser artikel stammt von china business news)
bericht/feedback