nachricht

ein direkter blick auf den aktuellen stand heimischer ki-chips: gpu-blutproduktion, tpu-raids, chiplets werden zum trend und netzwerkengpässe

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

autor |. gacs

xinxi berichtete am 6. september, dass heute in peking der jährliche global ai chip summit (gacs 2024) eröffnet wurde. der veranstaltungsort war voller sitzplätze und die zahl der zuschauer der cloud-live-übertragung erreichte 1,2 millionen.

▲es gab riesige menschenmengen innerhalb und außerhalb des veranstaltungsortes.

die konferenz wurde von core east west und intelligent orangutan von zhiyi technology gesponsert. unter dem motto „building core roads together in the intelligent computing era“ lud die konferenz mehr als 50 gäste aus den bereichen ki-chips, chiplets, risc-v und intelligent ein computercluster, ki-infrastruktur und andere bereiche. die gäste werden bei dem treffen nützliche informationen austauschen.

es ist der fünfte jahrestag der gründung des inländischen gpgpu-einhorns biren technology. auf der konferenz gab biren technology bekannt, dass es einen durchbruch in der multi-core-mixed-training-core-technologie erzielt und eine heterogene gpu-kollaborations-trainingslösung hgct entwickelt hat in der branche kann es drei oder mehr heterogene gpu-trainings desselben großen modells unterstützen.

▲biren technology führt die inländische heterogene gpu-kollaborationsschulungslösung hgct ein

gong lunchang, mitbegründer und ceo von zhiyi technology, hielt eine rede als organisator. der global ai chip summit fand dieses jahr zum siebten mal statt. der gipfel hat sich zur einflussreichsten branchenkonferenz in diesem bereich in china entwickelt ist ein guter ort, um die entwicklung von ki-chips im in- und ausland zu verstehen.

▲gong lunchang, mitbegründer und ceo von zhiyi technology

der global ai chip summit dauert zwei tage. der hauptveranstaltungsort umfasst die eröffnungszeremonie und drei hauptsitzungen (ki-chip-architektur, rechenzentrums-ki-chip, edge-ki-chip). zu den unterveranstaltungen gehören das chiplet technology forum und das intelligent computing cluster technology forum und risc-v-innovationsforum.

bei der eröffnungszeremonie hielt yin shouyi, professor der tsinghua-universität und stellvertretender dekan der school of integrated circuits, eine grundsatzrede mit dem titel „diskussion über den entwicklungspfad von high-computing-power-chips: von der computerarchitektur zur integrierten architektur“, in der er systematisch überprüfte bestehende technische herausforderungen und fünf innovative technologiepfade werden umfassend analysiert: datenfluss-chips, integrierte speicher- und rechenchips, rekonfigurierbare chips, dreidimensionale integrierte chips und wafer-level-chips.

heute werden sich 21 experten, unternehmer und führungskräfte von top-universitäten, forschungsinstituten und ki-chip-unternehmen austauschen. unter anderem lud die high-end-dialogsitzung vertreter von drei ki-chip-startups zu einer leidenschaftlichen debatte ein, nämlich biren technology, ein inländisches hochleistungschip-einhorn, aixin yuanzhi, ein geräteseitiges und randseitiges ki-chip-einhorn, und ein unternehmen das ist nur lingchuan technology, ein junges ki-chip-startup, das vor einem halben jahr gegründet wurde. sie konzentrierten sich auf die diskussion des aktuellen status, der neuesten praktiken und der fortgeschrittenen richtungen der ki-chip-industrie.

1. lösung der angebots- und nachfrageherausforderungen bei der rechenleistung großer modelle und innovative architektur zur überwindung von leistungsengpässen

yin shouyi, professor an der tsinghua-universität und stellvertretender dekan der school of integrated circuits, erläuterte die schwierigkeiten zwischen angebot und nachfrage von rechenleistung im zeitalter großer modelle: die chiptechnologie stößt auf grenzen der skalierung, wodurch die rechenleistung steigt prozessdividenden sind nicht nachhaltig; das system steht vor einem engpass, unzureichende kommunikationsbandbreite führt zu systemleistungsverlusten.

die chance, diese beiden hauptprobleme zu lösen, liegt in der gemeinsamen innovation der computerarchitektur und der integrierten architektur: innovationen in der computerarchitektur ermöglichen die vollständige nutzung jedes transistors und die ausübung einer stärkeren rechenleistung. innovationen in der integrierten architektur ermöglichen den durchbruch der chipgröße die grenzen.

derzeit gibt es fünf neue technologische wege für die entwicklung von chips mit hoher rechenleistung: datenflusschips, rekonfigurierbare chips, integrierte speicher- und rechenchips, dreidimensionale integrierte chips und wafer-level-chips. keiner dieser wege beruht vollständig auf modernsten herstellungsprozessen, was dazu beitragen wird, der heimischen chipindustrie neue möglichkeiten zur verbesserung der rechenleistung zu eröffnen.

▲yin shouyi, professorin an der tsinghua-universität und stellvertretende dekanin der school of integrated circuits

amd hat eine umfassende produktlinie im bereich der end-to-end-ki-infrastruktur geschaffen, die von rechenzentrumsservern über ki-pcs bis hin zu intelligenten embedded- und edge-geräten reicht, und bietet führende ki-open-source-software und ein offenes ökosystem. amds cpu-prozessorplattform, die auf der fortschrittlichen zen4-architektur basiert, und beschleuniger der mi-serie, die auf der cdna3-architektur für ki-begründung und -training basieren, wurden von giganten wie microsoft übernommen.

laut wang hongqiang, senior director der amd-abteilung für künstliche intelligenz, fördert amd auch eine leistungsstarke netzwerkinfrastruktur (ualink, ultra ethernet) in rechenzentren, die für ki-netzwerkstrukturen von entscheidender bedeutung ist, um schnelles switching und extrem niedrige latenzzeiten zu unterstützen erweitern sie die leistung des ki-rechenzentrums.

amd steht kurz vor der veröffentlichung der nächsten generation von hochleistungs-ki-pcs. seine ryzen ai npu basiert auf der xdna-architektur der zweiten generation und kann eine rechenleistung von 50 tops bieten und das energieeffizienzverhältnis auf das 35-fache der allzweckarchitektur steigern. angetrieben durch das streben von ki-pcs nach datenschutz, sicherheit und datenautonomie beginnen wichtige ki-workloads auf pcs bereitgestellt zu werden. als einer der weltweit führenden ki-infrastrukturanbieter ist amd bereit, mit kunden und entwicklern zusammenzuarbeiten, um eine transformative zukunft aufzubauen.

▲wang hongqiang, senior director der amd-abteilung für künstliche intelligenz

seit 2015 entwickelt qualcomm das npu-hardwaredesign kontinuierlich weiter, basierend auf änderungen in den anwendungsfällen von ki-anwendungen. die qualcomm ai engine wird durch den snapdragon 8 der dritten generation repräsentiert und nutzt eine heterogene computerarchitektur, die mehrere prozessoren wie cpu, gpu und npu integriert. unter anderem optimiert die qualcomm hexagon npu leistung und energieeffizienz durch großen speicher, dedizierte stromversorgung für beschleuniger, upgrades der mikroarchitektur und andere designs. ki verfügt über vielfältige anwendungsfälle und unterschiedliche anforderungen an die rechenleistung. daher wird die nachfrage nach heterogenem computing und prozessorintegration noch lange bestehen, was auch eine reihe von verbesserungen bei spitzenleistung, energieeffizienz, kosten usw. mit sich bringen wird.

die produktlinie von qualcomm deckt ein breites spektrum an edge-side-anwendungsszenarien wie mobiltelefone, pcs, xr, automobile und iot ab. sie kann entwickler dabei unterstützen, die ki-software- und hardwarelösungen von qualcomm zur algorithmusbeschleunigung in verschiedenen produktformen zu nutzen vorteile für verbraucher: ki-erlebnisse und anwendungsfälle auf dem gerät. schließlich kündigte wan weixing, leiter von qualcomm ai product technology china, auch an, dass die mobile plattform snapdragon der nächsten generation mit der neuesten qualcomm oryon-cpu auf dem snapdragon summit vorgestellt wird, der vom 21. bis 23. oktober dieses jahres stattfindet.

▲wan weixing, leiter der qualcomm ai-produkttechnologie in china

yang yue, mitbegründer und ceo von pingxin technology, erläuterte den fortschrittsprozess der integrierten speicher- und computertechnologie. das aufkommen und wachstum von mainstream-chips in der branche hängt eng mit den merkmalen der aktuellen computeranforderungen zusammen. um 2015 verlagerte sich der computerengpass in der computerarchitektur von der prozessorseite auf die speicherseite, insbesondere mit der entstehung neuronaler netze, was sich beschleunigte die recheneffizienz von ki-chips hat mit der geschwindigkeit der verbesserung aufmerksamkeit erregt.

yang yue glaubt, dass im zeitalter großer modelle die chance für integrierte speicher- und computertechnologie darin besteht, computer überall dort hinzuzufügen, wo es datenspeicher gibt. mit der kontinuierlichen weiterentwicklung der software sind in diesem jahr endseitige chips, die auf speicher und computer basieren, allmählich ausgereift. in zukunft könnte die lösung von datenbandbreitenengpässen in der cloud zur nächsten killeranwendung für speicher- und computerchips werden.

▲yang yue, mitbegründer und ceo von pingxin technology

tan zhanhong, cto von arctic xiongxin, sagte, dass es im bereich des hochleistungsrechnens zwei verschiedene paradigmen beim serverdesign gibt: standard-serverform und maßgeschneiderte serverarchitektur. bei standardservern konzentriert sich arctic xiongxin auf die erzielung einer höheren kostenleistung durch geeignete chip-splitting- und verpackungslösungen innerhalb des standardmäßig eingeschränkten bereichs. bei nicht-standard-servern bietet es möglichkeiten für die integration auf waferebene und konzentriert sich dabei auf die integration des chip- und systemdesigns sowie des co-designs von servern und chips, mit dem ziel, das ziel „server als chip“ zu erreichen.

tan zhanhong betonte insbesondere, dass unterschiedliche chipdesigns unterschiedliche bandbreitenanforderungen haben. beispielsweise ist bei prozessen über 7 nm in kombination mit der optimierung der bereitstellungskommunikation häufig keine hohe verbindungsbandbreitendichte erforderlich, sodass kein fortschrittliches paket erforderlich ist kann die leistungsanforderungen erfüllen und eine kostengünstige lösung erzielen. das pb-link ip von arctic xiongxin, das auf dem „core chip interconnect interface standard“ basiert, hat offiziell eine verbindung mit niedrigen verpackungskosten realisiert und hat nun damit begonnen, externe parteien zu autorisieren.

▲arctic xiongxin cto tan zhanhong

2. high-end-dialog: inländische ki-chips verfügen über verbesserte hämatopoetische fähigkeiten und die produkte des jüngsten start-ups wurden auf kuaishou eingeführt

zhang guoren, mitbegründer und chefredakteur von zhiyi technology, und ding yunfan, vizepräsident und chefarchitekt für ki-software von biren technology, liu li, mitbegründer und vizepräsident von lingchuan technology, und liu jianwei, co -gründer und vizepräsident von aixin yuanzhi, eröffnete die diskussion. ein runder tisch zum thema „konsens, co-kreation und win-win-situation für die implementierung inländischer ki-chips“.

zhang guoren sagte zu beginn des roundtable-dialogs, dass der von zhidongxi, coredongxi und zhiangzhi initiierte sechste ai chip summit die am längsten laufende fachkonferenz in diesem bereich in china sei, die in den letzten jahren einen boom erlebt habe die entwicklung von ki-chips und großen modellen hat auch den aufstieg einer reihe inländischer „neuer kräfte“ erlebt.

▲zhang guoren, mitbegründer und chefredakteur von zhiyi technology

ding yunfan sagte, dass große rechenleistungschips eine technologieintensive, talentintensive und kapitalintensive branche seien. als chip-einhorn mit der größten öffentlichen finanzierung auf dem markt verfügt biren technology über top-talente. seine produkte der ersten generation wurden in massenproduktion hergestellt und mehrere inländische gpu-kilokarten-cluster wurden auf den markt gebracht, die unabhängig voneinander blut generieren können. allerdings ist die gesamtsituation der heimischen chipindustrie immer noch nicht einfach und es klafft noch immer eine lücke zwischen den ökologischen aspekten und dem ausland.

viele heimische ki-chips werden mittlerweile in rechenzentren und intelligenten rechenzentren eingesetzt. nach ansicht von ding yunfan sind die inländischen produkte von nvidia nicht sehr kosteneffizient, solange inländische chips eine hohe leistung und kosteneffizienz bieten können. derzeit gibt es immer mehr neuigkeiten über den start der heimischen chipindustrie und die verbesserung der hämatopoetischen fähigkeiten. der abstand zu nvidia wird sich allmählich verringern.

▲ding yunfan, vizepräsident von biren technology und chefarchitekt von ai software

liu jianwei glaubt, dass niedrige kosten ein sehr wichtiger faktor sind und dass die unternehmen irgendwann ihre rechnungen begleichen müssen und ihre investitionen in die infrastruktur amortisiert werden müssen. liu li glaubt, dass der markteintritt von mehr unternehmen in segmentierten bereichen wie „embodied intelligence“ und „smart video“ in zukunft einen höheren wert als allgemeine produkte bringen wird, was nvidias umsatz und gewinn schmälern wird.

lingchuan technology ist eines der jüngsten inländischen ki-chip-startups. es wurde im märz dieses jahres gegründet und hat eine finanzierungsrunde abgeschlossen. die derzeit zum verkauf stehenden intelligenten videoverarbeitungschips machen 99 % der nutzung in kuaishou aus der bereich der videoverarbeitung wird voraussichtlich anfang nächsten jahres auf den markt kommen.

nach ansicht von liu li ist das marktfenster für ki-chips noch lange nicht geschlossen. angesichts der vorteile der giganten in bezug auf ressourcen, finanzmittel und ökologie müssen startups anstrengungen in vertikalen und segmentierten bereichen unternehmen. lingchuan technology kombiniert intelligente videoverarbeitung und ki-inferenz-rechenleistung mit dem ziel, die inferenzkosten pro token auf 10 % der nvidia h800 zu senken.

▲liu li, mitbegründer und vizepräsident von lingchuan technology

aixin yuanzhi, das sowohl auf end- als auch auf randseiten zielt, hat bemerkenswerte ergebnisse bei den marktanteilen erzielt. liu jianwei glaubt, dass diese beiden bereiche einen kommerziellen geschlossenen kreislauf schneller realisieren werden. er fügte hinzu, dass die herstellung von ki-chips letztendlich geld einbringen werde, die tatsächliche gewinnplanung jedoch von faktoren wie den kosten für die ki-bereitstellung beeinflusst werde und unternehmen so schnell wie möglich eine eigenerzeugung und einen geschlossenen kreislauf erreichen sollten. zukünftig wird aixin yuanzhi die implementierungsszenarien großer modelle auf der end- und kantenseite untersuchen.

die produktlieferungen von aixin yuanzhi im automobilbereich sind sehr beeindruckend, da die zugrunde liegende chiptechnologie von smart cities und autos ähnlich ist und dann in die smart-massenproduktion einsteigt bald erreicht. gleichzeitig wird der preiskampf im automobilbereich die industrielle arbeitsteilung fördern, was eine zeit der chancen darstellt.

▲liu jianwei, mitbegründer und vizepräsident von aixin yuanzhi

wie inländische ki-chips schnell eine ökologische nische finden können, nahm liu jianwei als beispiel für die tiefe entwicklungsszene von aixin yuanzhi. im bereich des intelligenten fahrens gibt es im grunde keine ausländischen unternehmen 1, und von 1 bis 100, die stufe, die den kosten mehr aufmerksamkeit schenkt, sind inländische geschäftsmöglichkeiten. ding yunfan nannte vier elemente: stabile und zuverlässige liefergarantie, kosteneffizienz, effiziente supportdienste basierend auf den kundenbedürfnissen sowie effizienz und benutzerfreundlichkeit. liu li glaubt, dass wir tiefer in vertikale bereiche eintauchen und effizientere und optimierte lösungen als allzweck-chips entwickeln sollten.

mit blick auf die zukunft prognostiziert liu jianwei, dass es in den nächsten 4 bis 5 jahren große entwicklungschancen sowohl auf der geräteseite als auch auf der cloud-seite geben wird. nachdem die implementierungskosten in der branche gesenkt wurden, können daten einen größeren wert erzielen . liu li glaubt, dass mit der bevorstehenden explosiven phase von ki-anwendungen ein großer bedarf an argumenten auf der cloud-seite bestehen wird. ding yunfan sagte, dass high-end-rechenleistung in china immer noch knapp sei, aber durch die zusammenarbeit der industriekette könne eine stetige entwicklung erreicht werden.

3. der bau intelligenter rechenzentren nimmt zu: neue durchbrüche bei gpus, inländischen tpu und chiplets sind auf dem vormarsch

bei der ki-chip-sitzung im rechenzentrum am nachmittag sagte yu mingyang, leiter von habana china, dass in den letzten drei jahren mehr als 50 staatlich geführte smart-computing-zentren gebaut wurden und sich mehr als 60 in der planung und im bau befinden der bau intelligenter rechenzentren hat schrittweise zugenommen. von städten der ersten ebene zu städten der zweiten und dritten ebene und von staatlich geführten zu unternehmensgeführten städten nehmen auch die anforderungen an kostensenkung und investitionsrenditezyklus allmählich zu.

seiner beobachtung zufolge wird die entwicklung großer modelle immer ausgereifter und die nachfrage nach inferenzchips durch führende csps wird in zukunft zunehmen die inferenzseite.

die nachfrage nach großen modellschulungen im ausland wird weiterhin stark sein, und die nachfrage nach rechenleistung für die inländische modellschulung ist im wesentlichen gesättigt, hauptsächlich aus dem feinabstimmungsgeschäft. um die zukünftige ki-entwicklung zu unterstützen, wird die integration von chiplets, hochgeschwindigkeitsspeichern mit großer kapazität und privaten/allgemeinen hochgeschwindigkeitsverbindungstechnologien eine schlüsselrolle spielen.

▲ yu mingyang, leiter von habana china

um das problem heterogener rechenleistungssilos für große modelle zu lösen, kündigte ding yunfan, vizepräsident von biren technology und chefarchitekt von ki-software, die einführung von birens eigener, ursprünglicher, heterogener gpu-kollaborationstrainingslösung hgct an. dies ist das erste mal in der branche, dass drei oder mehr heterogene gpus das gemeinsame training desselben großen modells unterstützen, das heißt, es unterstützt gemischtes training mit „nvidia + biren + gpus anderer marken“. und die end-to-end-schulungseffizienz erreicht 90 bis 95 %.

bi ren arbeitet mit kunden und partnern zusammen, um gemeinsam das heterogene gpu-ökosystem für kollaboratives training zu fördern, darunter china telecom, zte, sensetime, state grid intelligence research institute, shanghai intelligent computing technology co., ltd., shanghai artificial intelligence laboratory und china institute of informations- und kommunikationstechnologie usw.

seine produkte wurden kommerziell in gpu-clustern mit mehreren kilokarten eingesetzt. biren hat eine umfassende modelllösung entwickelt, die software und hardware, full-stack-optimierung, heterogene zusammenarbeit und open source integriert. zum ersten mal hat biren die automatische elastische erweiterung und kontraktion von 3d-parallelaufgaben mit großen modellen realisiert und die cluster-auslastung bei nahezu 100 % gehalten. es hat die automatische wiederherstellung von 100 milliarden parametermodellen in 1000-karten-clustern erreicht 4 tage lang keine ausfälle und 15 tage lang keine unterbrechung.

▲ding yunfan, vizepräsident von biren technology und chefarchitekt von ai software

zheng hanxun, mitbegründer und cto von zhonghao xinying, sagte, dass die heutigen großen ki-modelle die anforderungen an rechenkomplexität und rechenleistung zu jedem zeitpunkt in der computergeschichte bei weitem übertreffen und spezielle chips erfordern, die bei ki-berechnungen besser sind. im vergleich zur gpu, die ursprünglich für echtzeit-rendering und bildverarbeitung entwickelt wurde, ist tpu hauptsächlich für maschinelles lernen, deep-learning-modelle und neuronale netzwerkberechnungen konzipiert. der durchsatz einer einzelnen systolischen array-architektur ist stark optimiert die verarbeitungseffizienz wurde im vergleich zur gpu erheblich verbessert.

zhonghao xinyings selbst entwickelter „snap“-chip ist chinas erster massenproduzierter hochleistungs-ki-chip mit tpu-architektur. nach umfassender berechnung der rechenleistung, der kosten und des energieverbrauchs betragen die rechenkosten pro einheit nur 50 % derjenigen führender ausländischer gpus . . zheng hanxun glaubt, dass in den späteren phasen der groß angelegten modellentwicklung das beste kosten-nutzen-verhältnis von kilo- und 10.000-ka-clustern von entscheidender bedeutung sein wird. die direkte hochgeschwindigkeitsverbindung zwischen bis zu 1.024 chips in setsana-chips wird von entscheidender bedeutung sein ein entscheidender faktor beim aufbau großer computercluster. die leistung kann die leistung herkömmlicher gpus um ein vielfaches übertreffen.

▲zheng hanxun, mitbegründer und cto von zhonghao xinying

laut stephen feng, leiter für open accelerated computing-produkte bei inspur information, steht die entwicklung generativer ki mit zunehmender parameterskala großer modelle vor vier großen herausforderungen: unzureichende cluster-skalierbarkeit, hoher chip-stromverbrauch, schwierige cluster-bereitstellung und niedriges system zuverlässigkeit. große herausforderung. inspur information war schon immer anwendungsorientiert und systemzentriert und stimulierte die vitalität generativer ki-innovationen durch das offene system von kaiyuan.

im hinblick auf die offenheit der hardware haben wir oam-spezifikationen (open acceleration module) etabliert, um die online-bereitstellung fortschrittlicher rechenleistung zu beschleunigen und die iterative beschleunigung großer modelle und ki-anwendungen zu unterstützen. im hinblick auf die offenheit der software schaffen wir durch die große modellentwicklungsplattform „yuannao qizhi“ epai eine plattform zur unterstützung der gesamten prozessanwendungsentwicklung für unternehmen. durch end-to-end-lösungen lösen wir die im basisbereich bestehenden illusionsprobleme große modelle und die lösung von anwendungsentwicklungsproblemen wie komplexe prozesse, hohe schwellenwerte, schwierigkeiten bei der anpassung mehrerer modelle und hohe kosten beschleunigen die innovation und implementierung großer unternehmensmodellanwendungen.

▲stephen feng, leiter von inspur information open accelerated computing products

qingcheng jizhi wurde 2023 mit dem schwerpunkt ki-infrastruktur gegründet. das team wurde im fachbereich informatik der tsinghua-universität gegründet und verfügt über mehr als zehn jahre erfahrung in der intelligenten rechenleistungsoptimierung.

shi tianhui, mitbegründer von qingcheng jizhi, teilte mit, dass inländische hochleistungsrechnersysteme mit herausforderungen wie schwierigkeiten bei der fehlerbeseitigung und unzureichender leistung konfrontiert sind. sie erfordern die zusammenarbeit von 10 grundlegenden basissoftwaresystemen, und qingcheng jizhi gehört bereits dazu in mehr als der hälfte der bereiche gibt es selbst entwickelte produkte.

derzeit beherrscht qingcheng jizhi die anhäufung der full-stack-technologie vom compiler der unteren ebene bis zum parallelen computersystem der oberen ebene, hat eine vollständige stack-abdeckung der ökologie der großen modellindustrie erreicht und mehrere hochdurchsatz-inferenzoptimierungen abgeschlossen inländische chips und mainstream-großserien das modell wird schnell transplantiert und optimiert, und der berechnungseffekt wird erheblich verbessert. darunter das große modelltrainingssystem „bagua furnace“, das für extrem große inländische rechenleistungscluster entwickelt wurde, auf die größenordnung von 100.000 servern erweitert werden kann und zum trainieren von modellen mit 174 billionen parametern verwendet wird.

▲shi tianhui, mitbegründer von qingcheng jizhi

huang xiaobo, technologiemarketingdirektor von xinhe semiconductor, sagte, dass der bedarf an rechenleistung in den letzten 20 jahren um das 60.000-fache gestiegen sei und in den nächsten 10 jahren das 100.000-fache erreichen könnte. speicher- und verbindungsbandbreite seien zu großen entwicklungsengpässen geworden. chiplet-integrierte systeme sind in der post-moore-ära zu einer wichtigen richtung für durchbrüche bei fortgeschrittenen prozessbeschränkungen und verbesserungen der hochleistungsrechenleistung geworden. sie wurden häufig in ki-chips mit großer rechenleistung und ki-rechenleistungs-cluster-netzwerk-switching-chips eingesetzt.

in diesem zusammenhang bietet xinhe semiconductor eine umfassende multiphysik-simulations-eda-plattform für den entwurf und die entwicklung integrierter chiplet-systeme. die plattform unterstützt die parametrische modellierung von verbindungsstrukturen in gängigen prozessdesigns. sie benötigt nur 1/20 des speichers und verfügt über eine integrierte hbm/ucie-protokollanalyse es hat zahlreiche auszeichnungen von führenden herstellern von ki-rechenleistungschips erhalten und hilft dabei, die implementierung von chiplet-integrierten systemprodukten mit großer rechenleistung zu beschleunigen.

▲huang xiaobo, technologiemarketingdirektor von xinhe semiconductor

beim training großer modelle entfallen 30 % der kosten auf die netzwerkinfrastruktur, was die bedeutung der netzwerkleistung unterstreicht. laut zhu jundong, mitbegründer von qimo und vizepräsident für produkte und lösungen, ist das netzwerk zum flaschenhals für die leistung intelligenter computer geworden. der aufbau eines ki-netzwerks erfordert die integration von drei netzwerken, nämlich der verbindung zwischen clusternetzwerken und der verbindung innerhalb von schränken. und verbindungen innerhalb von chips.

große intelligence-computing-cluster erfordern eine leistungsstarke verbindung, und die modernisierung von rdma und chiplets ist zu schlüsseltechnologien geworden. um rdma zu optimieren, basiert die ndsa-netzwerkbeschleunigungs-core-serie von qimo auf einer programmierbaren many-core-streaming-architektur und nutzt eine hochleistungs-daten-engine, um einen leistungsstarken datenfluss und eine flexible datenbeschleunigung zu erreichen. das von ge entwickelte gpu-link-chiplet „ndsa-g2g“ basiert auf einer ethernet-infrastruktur und kann durch eine leistungsstarke daten-engine und d2d-schnittstellentechnologie eine hohe bandbreite im terabyte-bereich eines scale-up-netzwerks erreichen, und seine leistung ist mit der vergleichbar maßstab der globalen verbindungstechnologie.

▲zhu jundong, mitbegründer von qimo und vizepräsident für produkte und lösungen

alphawave ist ein unternehmen, das ip-, chiplet- und asic-designlösungen für hpc-, ki- und hochgeschwindigkeitsnetzwerkanwendungen anbietet. guo dawei, sein leitender geschäftsleiter im asiatisch-pazifischen raum, teilte mit, dass alphawave ip-produkte als reaktion auf die probleme bei der datenübertragung eine um zwei größenordnungen niedrigere bitfehlerrate aufweisen als konkurrenzprodukte. sie können auch dabei helfen integration und verifizierung und sind tief in das arm-ökosystem integriert. sie können auch den gesamten lebenszyklus-support für die socs der kunden bieten.

im hinblick auf chiplets hilft alphawave seinen kunden, den zyklus zu verkürzen, die kosten zu senken und die ausbeute und iterationsgeschwindigkeit zu verbessern. es hat nun den branchenweit ersten chiplet mit multiprotokoll-io-verbindung hergestellt, der dieses jahr auf den markt kam. bei kundenspezifischen chips konzentriert sich alphawave hauptsächlich auf prozesse unter 7 nm und kann den gesamten prozess von den spezifikationen bis zum tape-out entsprechend den kundenanforderungen durchführen. derzeit wurden mehr als 375 erfolgreiche tape-outs mit einem dppm von weniger als durchgeführt 25.

▲guo dawei, senior business director der alphawave-region asien-pazifik

fazit: nachgelagerte informationen nehmen zu und ki-chips stehen vor historischen chancen

auf dem weg zum ultimativen thema der allgemeinen künstlichen intelligenz verändert sich die form der ki-algorithmen immer weiter und ki-chips folgen diesem beispiel. wenn alter kies auf zukünftige maschinenintelligenz trifft, verschmelzen technologie und ingenieurswissen und kollidieren mit exquisitem design in computerclustern und in tausenden von haushalten und unterstützen so die entwicklung des lebens auf siliziumbasis.

von intelligenten rechenzentren und intelligentem fahren bis hin zu ki-pcs, ki-mobiltelefonen und neuer ki-hardware hat der trend der nachgelagerten intelligenz eine neue welle historischer möglichkeiten für ki-chips mit sich gebracht, die verschiedene szenarien verankern. die rasche entwicklung generativer ki-algorithmen und -anwendungen eröffnet weiterhin neue herausforderungen bei der rechenleistung. technologische innovation und marktnachfrage fördern gleichzeitig die expansion des ki-chip-marktes und diversifizieren die wettbewerbslandschaft von ki-chips.

am 7. september wird der 2024 global ai chip summit weiterhin intensive informationen liefern: am hauptveranstaltungsort finden eine sondersitzung zu innovationen in der ki-chip-architektur und eine sondersitzung zu edge-/end-side-ki-chips sowie die „2024 china's“ statt „top 20 intelligent computing cluster solution companies“ und „2024“. es gibt zwei listen der „top 10 chinas aufstrebenden ai-chip-unternehmen“; das intelligent computing cluster technology forum und das china risc-v computing chip innovation forum werden am unterveranstaltungsort stattfinden .