Nachricht

Was bleibt von einem großen Modell übrig, das am Rand landet?

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Da große Modelle den Prozess der Stärkung der Industrie beginnen, ist ihr groß angelegter Einsatz am Rand/an der Seite zu einer Top-Priorität für die weitere Entwicklung geworden. Der Einsatz am Rand/an der Seite ist jedoch sicherlich förderlicher für die Erzielung einer sofortigen Reaktion und den Schutz der Privatsphäre bei großen Modellen, wird jedoch auch mit Herausforderungen in Bezug auf die Fragmentierung der Rechenleistung, Energieeffizienzprobleme und Implementierungsszenarien konfrontiert sein. Für Unternehmen ist dies sowohl eine Schwierigkeit als auch eine Chance.

Aufgrund der Anwendungsanforderungen der Industrie entwickeln sich große Modelle in Richtung Edge.

Derzeit erlebt die große Modellindustrie meines Landes eine rasante Entwicklung. Statistiken zeigen, dass die Zahl der in China veröffentlichten Großmodelle Ende März 117 erreicht hat. Allerdings legen Chinas große Modellunternehmen im Entwicklungsprozess, anders als in den USA, die sich auf originelle Durchbrüche konzentrieren, mehr Wert auf die Anwendungsimplementierung. Zhou Hongyi, Gründer und Vorsitzender der 360 Group, sagte in einer früheren Rede, dass Volumenmodelle, Rechenleistung und Daten nicht die einzigen Optionen seien, um Modelle für Billionen von Parametern zu entwickeln. Große Modelle der künstlichen Intelligenz haben vielfältigere Entwicklungspfade. Auch Li Dahai, Mitbegründer und CEO von Face Wall Intelligence, betonte die Bedeutung von Branchenmodellen, die mittlerweile zu einem der wichtigen Entwicklungstrends geworden seien.

Wenn Sie Tausende von Branchen effektiver unterstützen möchten, können große Modelle und die damit verbundene Rechenleistung nicht nur in der Cloud bereitgestellt werden. Edge- und End-Side-Modelle bieten komparative Vorteile, die die Cloud nicht bietet. Das erste ist, dass das Endseitenmodell eine höhere Zuverlässigkeit aufweist. Auf Terminals bereitgestellte Modelle können in Echtzeit und kontinuierlich mit der Umgebung interagieren, für Cloud-Modelle ist es jedoch schwierig, diese Kontinuität aufrechtzuerhalten. Zweitens kann das clientseitige Modell die Privatsphäre der Benutzer besser gewährleisten. Dieses Problem hat zunehmende Aufmerksamkeit erregt, wenn Roboter in Zukunft weiträumig in das Haus eindringen, werden die Datenschutzprobleme gravierender. Die Vorteile des clientseitigen Modells bei der Gewährleistung des Datenschutzes liegen noch deutlicher auf der Hand.



Basierend auf diesem Verständnis haben einige Edge-Computing-Unternehmen die Führung bei der Durchführung von Szenario-Übungen rund um Edge-KI übernommen und Edge-KI erfolgreich in mehrere Bereiche eingeführt. Im Bereich der intelligenten Fertigung beispielsweise kann die Edge-Computing-Plattform Jetson von NVIDIA KI-Inferenz-Computing-Funktionen in Industrieszenarien einbringen und Probleme wie Fehlererkennung und flexible Fertigung am Fließband durch den Einsatz von GPU-beschleunigtem visuellem KI-Denken lösen. Intels Lösungen werden auch in Bereichen wie intelligenter Überwachung, Bildung und Lehre sowie intelligenter medizinischer Versorgung eingesetzt. Durch die Verwaltung verschiedener Edge-Geräte tragen sie dazu bei, dass Edge-Intelligence-Dienste flexibler, effizienter und genauer werden.

Die Entwicklung von Edge- und End-Side-Modellen hat auch das Wachstum des Edge-KI-Computing vorangetrieben, und die damit verbundene Rechenleistung, Chips und andere Kettenglieder der Industrie haben eine Welle groß angelegter Entwicklung eingeleitet. Qiu Xiaoxin, Gründer und Vorsitzender von Aixin Yuanzhi, wies darauf hin, dass die echte groß angelegte Implementierung großer Modelle eine enge Integration von Cloud, Edge und End auf drei Ebenen erfordert. Der Schlüssel zur Kombination von Edge-Seite und End-Seite liegt in der KI Rechnen und Wahrnehmung. Qiu Xiaoxin glaubt, dass intelligente Chips und multimodale Großmodelle im Zeitalter der künstlichen Intelligenz zur „goldenen Kombination“ geworden sind. Wenn große Modelle immer häufiger eingesetzt werden, werden sparsamer, effizienter und umweltfreundlicher die Schlüsselwörter von Smart Chips und KI-Ausstattung Der effiziente Inferenzchip des Prozessors wird eine vernünftigere Wahl für die Implementierung großer Modelle sein, was auch der Schlüssel zur Förderung inklusiver KI ist. STL Partners prognostiziert, dass die potenzielle Größe des globalen Edge-Computing-Marktes bis 2030 auf 445 Milliarden US-Dollar anwachsen wird, mit einer durchschnittlichen jährlichen Wachstumsrate der Branche von bis zu 48 %.

Diversifizierter Einsatz der Rechenleistung zur Bewältigung der Fragmentierungsherausforderungen

Der Einsatz großer Modelle auf der Rand-/Endseite lässt sich jedoch nicht über Nacht bewerkstelligen. Aufgrund der begrenzten Rechenressourcen von Edge-Geräten und der unterschiedlichen Anforderungen an Rechenressourcen großer Modelle wird der Edge-Einsatz zunächst vor Herausforderungen hinsichtlich der Rechenleistung stehen. Einerseits müssen Modellhersteller technische Verarbeitungen wie Komprimierung, Bereinigung und Quantifizierung an großen Modellen durchführen, um die Größe und Rechenkomplexität des Modells zu reduzieren, damit es sich an die Leistungsanforderungen von Edge-/End-Side-Geräten anpassen kann; Andererseits steht auch die Frage, wie sich die Rechenleistungsbasis bei der Bereitstellung von Einrichtungen verhält, im Fokus.

Zhang Yu, Chief Technology Officer der Network and Edge Division von Intel China, betonte, dass künstliche Intelligenz Tausende von Branchen beflügelt und unterschiedliche Anwendungen unterschiedliche Anforderungen an die Rechenleistung stellen, und die Spanne ist sehr groß. Geräte mit hohen Leistungsanforderungen müssen in einem Rechenleistungscluster gehostet werden, während ein oder mehrere Geräte mit geringen Anforderungen an die Rechenleistung verwendet werden können. Yang Lei, Produktdirektor von Arm Technology, sagte auch, dass bei der Bereitstellung solch großer KI-Modelle auf Terminals immer noch zahlreiche Herausforderungen wie Kosten, Stromverbrauch und Software-Ökosystem bestehen.



Als Reaktion auf solche Nachfragetrends haben Anbieter von Rechenleistungsinfrastrukturen wie Inspur und Lenovo in den letzten Jahren Rechenleistungslayouts rund um „End-Edge-Cloud-Netzwerk-Intelligence“ entwickelt. Zu den Produkten gehören intelligente Edge-Gateways, Edge-Server, Industriesteuerungen, eingebettete Computer und andere Hardwaregeräte, um den Rechenleistungsbedarf verschiedener Branchen zu decken. Auf der Chipseite ist die Integration von CPU+GPU+NPU zur Richtung der Prozessorentwicklung geworden, um mit der komplexeren KI-Rechenleistung fertig zu werden. Qualcomm bringt die integrierte dedizierte neuronale Verarbeitungseinheit Snapdragon X Elite auf den Markt, die zig Milliarden Modelle auf Parameterebene unterstützt. Der Intel Meteor Lake-Prozessor kombiniert die NPU mit der KI-Funktion der Rechen-Engine im Prozessor, um die Energieeffizienz von PCs zu verbessern, auf denen KI-Funktionen ausgeführt werden. In Bezug auf inländische KI-Chips hat Aixin Yuanzhi kürzlich auch den „Aixin Tongyuan AI Processor“ veröffentlicht. Der Kernbefehlssatz und die Datenfluss-Mikroarchitektur übernehmen eine programmierbare Datenfluss-Mikroarchitektur, die die Energieeffizienz und Rechenleistung effektiv verbessern kann. Dichte, geeignet für die Entwicklung von Edge-Computing- und AI-Argumentationsfeldern.

Aspekte der Energieeffizienz am Rande stehen im Vordergrund, und die Entwicklung des Leichtbaus ist der Schlüssel

Auch die Energieeffizienz ist ein zentrales Thema, das bei der Entwicklung von Edge-Großmodellen berücksichtigt werden muss. Wenn große Modelle effektiv auf der Edge-/End-Seite eingesetzt werden sollen, stehen im Vergleich zur Cloud tatsächlich Fragen der Energieeffizienz im Vordergrund. Sachin Katti, Senior Vice President und General Manager der Network and Edge Division bei Intel, sagte in einem Interview mit dem Autor, dass bei der Erörterung der Rechenleistung neben der Optimierung der Rechenleistung, der Softwareökologie usw. auch der Stromverbrauch ein zentrales Thema sei. vor allem, wenn es am Rand eingesetzt wird. Der Energieverbrauch von Edge-bereitgestellten Geräten kann etwa 200 W betragen; der Energieverbrauch der Cloud-Bereitstellung kann 1.000 bis 2 kW betragen, und der Energieverbrauch eines Single-Layer-Racks im Rechenzentrum kann bis zu 100 kW betragen. Addiert man den Energieverbrauch des gesamten Rechenzentrums, kann dieser eine Größenordnung von 50G bis 100GW erreichen.

Edge-Geräte verfügen oft nur über begrenzte Rechenleistung und Speicher, und große Modelle erfordern erhebliche Ressourcen für leistungsstarke Inferenzen. „Daher ist die Frage, wie man die Ressourcennutzung optimiert und den Energieverbrauch senkt und gleichzeitig die Modellgenauigkeit und Reaktionsgeschwindigkeit gewährleistet, zu einer zentralen Frage geworden.“ Als Reaktion auf diesen Trend haben relevante Hersteller leichte Entwicklungsframeworks und Beschleunigungsbibliotheken gefördert, wie z. B. die von AMD veröffentlichte Ryzen AI-Modellbereitstellungs-Engine, die OpenVINO-Inferenzbeschleunigungsbibliothek von Intel, die TensorRT-Hochleistungs-Inferenzbeschleunigungsbibliothek von NVIDIA usw., kombiniert mit gezielten Leichte Entwicklungsframeworks für eingebettete und mobile Endgeräte (wie PyTorch Mobile, TensorFlow Lite, Paddle Lite usw.) können die weit verbreitete Anwendung künstlicher Intelligenz in mobilen Geräten, dem Internet der Dinge und anderen Edge-Computing-Szenarien fördern.



Darüber hinaus hat die Branche damit begonnen, die Flüssigkeitskühlungstechnologie in großem Umfang als Mittel zur Kühlung von Servern einzusetzen und wird nach und nach in Rechenzentren und großen Modellimplementierungen eingesetzt. Es wird davon ausgegangen, dass die vorhandene Flüssigkeitskühlungstechnologie bereits eine 100-kW-Flotte kühlen kann und voraussichtlich in Zukunft auf 300 kW erweitert wird.

Wer wird bei der Erforschung von KI-Anwendungen in Zukunft die „Starszene“ sein?

Da immer mehr Menschen die Leistungsfähigkeit großer Modelle in industriellen Anwendungen betonen, ist die Suche nach geeigneten „Star-Szenen“ zu einem zentralen Thema geworden, das über Erfolg oder Misserfolg der Branche entscheidet. Derzeit sind KI-Mobiltelefone, KI-PCs und autonomes Fahren die vielversprechendsten Anwendungsmärkte für große Modelle.

Die neuesten Untersuchungen des Marktforschungsunternehmens IDC zeigen, dass der Markt für KI-Mobiltelefone im Jahr 2024 Auslieferungen von 234,2 Millionen Einheiten erreichen wird, ein Anstieg von 363,6 % gegenüber 50,5 Millionen ausgelieferten Einheiten im Jahr 2023, und 19 % des gesamten Smartphone-Marktes ausmachen wird Markt dieses Jahr. Im Jahr 2028 werden die Auslieferungen von KI-Mobiltelefonen 912 Millionen Einheiten erreichen, mit einer durchschnittlichen jährlichen Wachstumsrate von 78,4 %. Anthony Scarsella, Forschungsdirektor von IDCs Worldwide Quarterly Mobile Phone Tracking, sagte, dass die Kosten ein entscheidender Hemmschuh bleiben werden, wenn KI-Telefone auf den Markt kommen, da viele leistungsstarke Chips und NPUs teuer sind und hauptsächlich im Ultra-High-End-Markt verkauft werden. Wir glauben jedoch, dass diese Komponenten im Laufe der Zeit und des zunehmenden Wettbewerbs ihren Weg in Mittelklasse- und günstigere Modelle finden werden.

KI-PCs entwickeln sich schneller als ursprünglich erwartet und werden voraussichtlich eine Welle von Ersatzlösungen für die globale PC-Industrie mit sich bringen. Laut der Prognose von Canalys wird die globale KI-PC-Penetrationsrate von 2024 bis 2028 von 19 % auf 71 % steigen und die Auslieferungen werden von 51 Millionen Einheiten auf 208 Millionen Einheiten steigen, mit einer durchschnittlichen jährlichen Wachstumsrate von 42,11 %. Morgan Stanley prognostiziert, dass KI-PCs in diesem Jahr 2 % des gesamten PC-Marktes ausmachen und im nächsten Jahr auf 16 %, 28 % im Jahr 2026, 48 % im Jahr 2027 und 64 % im Jahr 2028 ansteigen werden.

Der Einsatz großer Modelle in Autos steckt jedoch noch in den Kinderschuhen. Da sich das Konzept der Intelligenz jedoch allmählich in den Herzen der Menschen festsetzt, sind sich die meisten Menschen darüber einig, dass Autos irgendwann zu „gehenden mobilen Terminals“ werden Auch große KI-Modelle in Autos werden „den Schnellzug nehmen“. Es gibt zwei Hauptrichtungen für den Einbau großer Modelle in Autos: Die eine besteht darin, den Cockpitbereich zu betreten, um eine intelligentere Mensch-Computer-Interaktion zu erreichen, die andere darin, mit dem automatischen Fahrsystem zusammenzuarbeiten, um intelligente Fahrlösungen weiter zu verbessern. Zhang Chi, CTO von Maichi Intelligent Technology Co., Ltd., sagte, dass große Modelle den Übergang des autonomen Fahrens von Autobahnen zu komplexeren städtischen Szenarien beschleunigen und auch die Bildung einer durchgängigen Wahrnehmungs- und Steuerungsintegration fördern. Liu Jianwei, Mitbegründer und Vizepräsident von Aixin Yuanzhi, sagte, dass Aixin Yuanzhi den Ausbruch von Transformer im Jahr 2022 vorhergesagt und die Führung bei der Einführung eines Chips übernommen habe, der mit dem AI-Prozessor von Aixin Tongyuan ausgestattet sei. Die intelligenten Fahrchips von Aixin Yuanzhi, wie M55H und M76H, wurden in aktuellen, heiß verkauften Modellen installiert.