nachricht

google enthüllte seine tpu-geheimwaffe, alphachip, erschien in nature und gab eine ausführliche erklärung des entwicklungsprozesses von ki-design-chips

2024-09-29

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

kürzlich hat google deepmind seinen neuesten chip-design-algorithmus alphachip auf nature angekündigt. diese methode dient der beschleunigung und optimierung der entwicklung von computerchips. sie wurde von mehreren tpu-produkten getestet und kann die von menschlichen experten geforderten aufgaben in nur wenigen minuten erledigen stunden. wochen oder sogar monate chip-layout-design.

im jahr 2020 veröffentlichte google ein wegweisendes preprint-papier mit dem titel „chip placement with deep reinforcement learning“, in dem es der welt erstmals sein chip-layout zeigte, das mithilfe einer neuen reinforcement-learning-methode entworfen wurde.diese innovation ermöglicht es google, ki in das tpu-chip-design einzuführen und so ein chip-layout zu erreichen, das menschliche designer übertrifft.

bis 2022 wird google den in dem papier beschriebenen algorithmuscode weiter als open-source-lösung bereitstellen, sodass forscher auf der ganzen welt diese ressource nutzen können, um chipblöcke vorab zu trainieren.

heute hat diese ki-gesteuerte lernmethode den test mehrerer produktgenerationen wie tpu v5e, tpu v5p und trillium durchlaufen und bei google bemerkenswerte ergebnisse erzielt. noch bemerkenswerter ist, dass das google deepmind-team kürzlich einen anhang dieser methode in nature veröffentlicht hat, in dem ihre weitreichenden auswirkungen auf den bereich des chip-designs detaillierter dargelegt werden. gleichzeitig,google eröffnete außerdem einen kontrollpunkt, der auf dem vortraining von 20 tpu-modulen basiert, modellgewichte teilte und ihn alphachip nannte.

das aufkommen von alphachip kündigt nicht nur an, dass ki im bereich des chip-designs immer häufiger zum einsatz kommen wird, sondern markiert auch den beginn einer neuen ära des „chip-basierten designs“.

alphachip: wie google deepmind ki nutzt, um das chip-design zu revolutionieren

als spitze von googles deepmind erregt alphachip mit seinen revolutionären fortschritten im chip-design die aufmerksamkeit der globalen technologie-community.

das chip-design ist ein spitzengebiet der modernen technologie. seine komplexität liegt in der raffinierten verbindung unzähliger präzisionskomponenten durch extrem feine drähte. als eine der ersten reinforcement-learning-techniken, die zur lösung realer technischer probleme eingesetzt wird, ist alphachip in der lage, chip-layout-designs, die mit menschen vergleichbar oder sogar besser sind, in nur wenigen stunden statt wochen- oder monatelanger manueller arbeit fertigzustellen. diese epochale entwicklung hat unserer vorstellungskraft die tür über traditionelle grenzen hinaus geöffnet.

wie genau gelingt alphachip dieses kunststück?

das geheimnis von alphachip ist sein ansatz zum reinforcement learning, bei dem das chip-layout-design als spiel behandelt wird. beginnend mit einem leeren raster platziert alphachip nach und nach jede schaltungskomponente, bis alles an seinem platz ist. anschließend vergibt das system je nach qualität des layouts entsprechende belohnungen.

noch wichtiger ist, dass google innovativ ein „kantenbasiertes“ graphisches neuronales netzwerk vorgeschlagen hat.dadurch ist alphachip in der lage, die gegenseitigen beziehungen zwischen chipkomponenten zu erlernen und sie auf das design des gesamten chips anzuwenden, wodurch in jedem design selbsttranszendenz erreicht wird. ähnlich wie alphago kann alphachip durch „spiele“ lernen und die kunst des entwerfens hervorragender chip-layouts beherrschen.

im spezifischen prozess des entwurfs des tpu-layouts wird alphachip zunächst ein vortraining für verschiedene module früherer chipgenerationen durchführen, darunter on-chip- und inter-chip-netzwerkmodule, speichercontroller und datenübertragungspuffer. diese vorschulungsphase bringt alphachip einen großen erfahrungsschatz ein. google nutzte dann alphachip, um hochwertige layouts für aktuelle tpu-module zu generieren.

im gegensatz zu herkömmlichen methoden optimiert sich alphachip kontinuierlich selbst, indem es mehr chip-layout-aufgaben löst, während menschliche experten ihre fähigkeiten durch übung ständig verbessern. wie deepmind-mitbegründer und ceo demis hassabis sagte:google hat rund um alphachip eine leistungsstarke feedbackschleife aufgebaut:

* trainieren sie zunächst ein erweitertes chip-designmodell (alphachip).

* zweitens: verwenden sie alphachip, um bessere ki-chips zu entwickeln

* dann nutzen sie diese ki-chips, um bessere modelle zu trainieren

* schließlich können sie diese modelle verwenden, um bessere chips zu entwerfen

immer wieder werden das modell und der ki-chip gleichzeitig aktualisiert, sagte demis hassabis: „das ist einer der gründe, warum der google tpu-stack so gut funktioniert.“

alphachip platziert nicht nur mehr module als menschliche experten, sondern hat auch deutlich weniger verkabelungslängen.mit der einführung jeder neuen tpu-generation entwirft alphachip bessere chip-layouts und bietet einen vollständigeren gesamtgrundriss, wodurch der designzyklus verkürzt und die chipleistung verbessert wird.

die anzahl der alphachip-design-chipblöcke und die durchschnittliche leitungslängenreduzierung der drei tpu-generationen von google (v5e, tpu v5p)

die 10-jährige reise von google tpu: von der beharrlichkeit im asic bis zur innovation im ki-design

als entdecker und pionier auf dem gebiet der tpu verlässt sich google beim blick auf die entwicklungsgeschichte dieser technologielinie nicht nur auf seine scharfen erkenntnisse, sondern beweist auch seinen außergewöhnlichen mut.

wie wir alle wissen, war in den 1980er jahrenasic (application specific integrated circuit) zeichnet sich durch hohe kosteneffizienz, starke rechenleistung und hohe geschwindigkeit aus.es hat auf dem markt großen anklang gefunden. die asic-funktionalität wird jedoch durch benutzerdefinierte maskentools bestimmt, was bedeutet, dass kunden im voraus hohe, einmalige engineering-kosten (nre) zahlen müssen.

zu diesem zeitpunkt,fpga (field programmable gate array) hat den vorteil, dass die vorabkosten gesenkt und das risiko einer angepassten digitalen logik verringert werden.obwohl es in der leistung nicht völlig überlegen ist, tritt es in die öffentlichkeit, ist aber einzigartig auf dem markt.

damals ging die branche allgemein davon aus, dass das mooresche gesetz die fpga-leistung über die anforderungen von asics hinaus steigern würde. es stellt sich jedoch heraus, dass fpga als programmierbarer „universalchip“ in forschungs- und kleinserienprodukten eine gute leistung erbringt und bessere geschwindigkeits-, stromverbrauchs- oder kostenindikatoren als gpus erzielen kann, aber dennoch nicht auf „universalität“ verzichten kann optimalität kann nicht gleichzeitig erreicht werden.“ nachdem fpgas den weg für eine spezialisierte architektur ebneten, wichen sie spezialisierteren asics.

mit beginn des 21. jahrhunderts ist die begeisterung für ki-technologie immer weiter gestiegen. die nachfrage der branche nach leistungsstarken, dedizierten ki-rechnerchips usw. ist gestiegen . sind bei vielen komplexen aufgaben zunehmend wirkungslos geworden. vor diesem hintergrund traf google im jahr 2013 eine mutige entscheidung:wählen sie asic, um eine tpu-infrastruktur aufzubauen und rund um tensorflow und jax zu entwickeln.

es ist erwähnenswert, dass die unabhängige forschung und entwicklung von asic ein prozess mit langen zyklen, großen investitionen, hohen schwellenwerten und großen risiken ist. wird die falsche richtung eingeschlagen, kann dies zu enormen wirtschaftlichen verlusten führen. um jedoch kostengünstigere und energiesparendere lösungen für maschinelles lernen zu erkunden, begann google 2013 sofort mit der entwicklung von tpuv1 und kündigte 2015 die erste generation an, nachdem google durch deep learning bahnbrechende fortschritte bei der bilderkennung erzielt hatte chip (tpu v1) ist intern online,dies markiert die geburtsstunde des weltweit ersten beschleunigers, der speziell für ki entwickelt wurde.

glücklicherweise eröffnete tpu bald eine hochkarätige demonstrationsmöglichkeit – im märz 2016 besiegte alphago lee erfolgreich den go-weltmeister lee sedol. als version der zweiten generation der alphago-serie werden 50 tpus für die berechnung benötigt .

allerdings gelang es tpu nicht sofort, in großem umfang erfolgreich in der industrie anwendung zu finden. erst als die alphachip-chip-layout-methode vorgeschlagen wurde, trat tpu wirklich in eine neue entwicklungsphase ein.

entwicklungsgeschichte der google tpu

im jahr 2020 demonstrierte google die fähigkeiten von alphachip in einem preprint-artikel „chip placement with deep reinforcement learning“.es ist in der lage, aus früheren erfahrungen zu lernen und sich kontinuierlich zu verbessern, und kann umfangreiche funktionseinbettungen für eingabenetzlisten generieren, indem es eine neuronale belohnungsarchitektur entwirft, die verschiedene netzlisten und deren layouts genau vorhersagen kann.

alphachip betrachtet die bedingungen der leistungsoptimierung als siegbedingungen des spiels, wendet methoden des verstärkungslernens an und optimiert kontinuierlich die fähigkeit des chip-layouts, indem es einen agenten mit dem ziel trainiert, die kumulativen belohnungen zu maximieren. sie starteten 10.000 spiele und ermöglichten es der ki, layout und routing auf 10.000 chips zu üben und daten zu sammeln, während sie gleichzeitig kontinuierlich lernte und optimierte.

letztendlich stellten sie fest, dass die ki im vergleich zu menschlichen ingenieuren das manuelle layout in bezug auf fläche, leistung und kabellänge übertraf oder mit diesem übereinstimmte und gleichzeitig deutlich weniger zeit benötigte, um designstandards zu erfüllen. das zeigen die ergebnissealphachip kann in weniger als 6 stunden layouts erstellen, die mit dem manuellen aufwand moderner beschleunigernetzlisten mithalten oder diese sogar übertreffen.unter den gleichen bedingungen kann es sein, dass bestehende menschliche experten mehrere wochen brauchen, um die gleiche arbeit abzuschließen.

mit hilfe von alphachip setzt google zunehmend auf tpu.dezember 2023google hat drei verschiedene versionen von gemini auf den markt gebracht, einem multimodalen allgemeinen großmodell. das training dieses modells nutzt in großem umfang den cloud tpu v5p-chip.mai 2024,google hat den tpu-chip trillium der sechsten generation herausgebracht, der zu einem cluster von bis zu 256 tpus in einem einzigen pod mit hoher bandbreite und geringer latenz erweitert werden kann. im vergleich zu früheren produktgenerationen verfügt trillium über stärkere fähigkeiten bei der anpassung des modelltrainings . .

gleichzeitig sind tpu-chips nach und nach über google hinausgegangen und haben eine breitere marktbekanntheit erlangt.30. juli 2024in einem veröffentlichten forschungspapier behauptete apple, dass es beim training des künstlichen intelligenzmodells afm im apple intelligence-ökosystem zwei tensor processing unit (tpu)-cloud-cluster von google ausgewählt habe. andere daten zeigen, dass mehr als 60 % der generativen ki-startups und fast 90 % der generativen ki-einhörner die ki-infrastruktur und cloud tpu-dienste von google cloud nutzen.

es gibt verschiedene anzeichen dafür, dass tpu, nachdem google sein schwert zehn jahre lang geschärft hat, aus der kultivierungsphase herausgekommen ist und begonnen hat, google mit seiner hervorragenden hardwareleistung in die ki-ära zurückzubringen.der in alphachip enthaltene pfad „ai design ai chip“ eröffnet auch im bereich chipdesign neue horizonte.

ki revolutioniert das chipdesign: vom google alphachip bis zur erforschung der vollständigen prozessautomatisierung

obwohl alphachip einzigartig auf dem gebiet der ki-designten chips ist, ist es nicht allein.die reichweite der ki-technologie wurde auf viele wichtige bereiche wie chipverifizierung und -tests ausgeweitet.

die kernaufgabe des chipdesigns besteht darin, den stromverbrauch (power), die leistung (performance) und die fläche (area) des chips zu optimieren. diese drei schlüsselindikatoren werden zusammenfassend als ppa bezeichnet. traditionell wird diese aufgabe von eda-tools erledigt, aber um eine optimale leistung zu erreichen, müssen chip-ingenieure ständig manuelle anpassungen vornehmen und diese dann erneut zur optimierung an eda-tools übergeben und so weiter. dieser vorgang ähnelt dem anordnen von möbeln zu hause und dem ständigen versuch, die raumausnutzung zu maximieren und die zirkulation zu optimieren. allerdings ist jede anpassung gleichbedeutend damit, die möbel herauszunehmen und neu anzuordnen, was äußerst zeitaufwändig und arbeitsintensiv ist.

um dieses problem zu lösen,synopsys hat dso.ai im jahr 2020 gestartet.dies ist die branchenweit erste chip-designlösung, die ki und eda integriert. dso.ai nutzt reinforcement-learning-technologie, um den designraum mithilfe von ki automatisch zu durchsuchen, um den besten balancepunkt ohne manuelles eingreifen zu finden. dieses tool wurde von vielen chip-giganten verwendet.

nach der verwendung von dso.ai hat microsoft beispielsweise den stromverbrauch von chipmodulen um 10 bis 15 % reduziert und gleichzeitig die leistung des ppa-speicherchips beibehalten um 5 %. synopsys-daten zeigen, dass dso.ai mehr als 300 kommerzielle tape-outs erfolgreich unterstützt hat, was die wichtige rolle unterstreicht, die ki bei der entwicklung und produktion realer chips spielt.

in bezug auf die ki-gestützte chip-verifizierung wurde in einem von synopsys veröffentlichten technischen bericht auch darauf hingewiesen, dass der verifizierungsprozess bis zu 70 % des gesamten chip-entwicklungszyklus einnimmt. die kosten für ein chip-tape-out belaufen sich auf hunderte millionen dollar, und die komplexität moderner chips nimmt immer weiter zu, was die verifizierung erschwert. zu diesem zweck,synopsys führt das vso.ai-tool ein,nutzen sie ki, um den verifizierungsraum zu optimieren und die konvergenz der abdeckung zu beschleunigen.

vso.ai kann verschiedene abdeckungstypen ableiten und so die herkömmliche codeabdeckung ergänzen. ki kann auch aus verifizierungserfahrungen lernen, um die abdeckungsziele kontinuierlich zu optimieren. darüber hinaus hat synopsys auch das tso.ai-tool auf den markt gebracht, das chipentwicklern dabei helfen kann, fehlerhafte chips, die von gießereien hergestellt wurden, auszusortieren.

die starke einbeziehung der ki in den bereich des chipdesigns hat eine mutige idee hervorgebracht: können wir ki nutzen, um einen kompletten chip zu entwerfen? tatsächlich hat nvidia es in diesem bereich bereits versucht. entwerfen sie schaltkreise durch deep-reinforcement-learning-agenten,fast 13.000 schaltkreise im h100 von nvidia wurden von ki entworfen. auch das institut für computertechnologie der chinesischen akademie der wissenschaften nutzte ki, um innerhalb von 5 stunden einen risc-v-prozessorchip namens „qiu meng no. 1“ zu generieren.mit 4 millionen logikgattern ist seine leistung vergleichbar mit intel 80486.

insgesamt ist die fähigkeit der ki, komplette chips zu entwerfen, noch begrenzt, aber dies ist zweifellos eine wichtige chance für die zukünftige chipentwicklung. mit der kontinuierlichen weiterentwicklung der technologie wird das potenzial der ki im bereich des chipdesigns sicherlich weiter erforscht und genutzt und letztendlich den gesamten chipdesignprozess verändern.

autor: tian xiaoyao