Nachricht

Amazon erwirbt ein Chipunternehmen

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Amazon hat eine Vereinbarung zur Übernahme des Chipherstellers und KI-Modellkomprimierungsunternehmens Perceive, einer in San Jose, Kalifornien, ansässigen Tochtergesellschaft des börsennotierten Xperi, für 80 Millionen US-Dollar in bar getroffen. Perceive ist ein Unternehmen, das bahnbrechende Inferenzlösungen für neuronale Netze entwickelt und sich dabei auf Technologien konzentriert, die groß angelegte Modelle der künstlichen Intelligenz auf Edge-Geräten liefern.

Amazon hat seine konkreten Gedanken zur Technologie nicht preisgegeben. „Wir freuen uns, eine Vereinbarung zur Übernahme von Perceive unterzeichnet zu haben und sein talentiertes Team dazu zu bringen, sich unseren Bemühungen anzuschließen, große Sprachmodelle und multimodale Erfahrungen auf Geräte zu bringen, die am Netzwerkrand laufen können“, sagte ein Amazon-Sprecher.

Xperi sucht seit Anfang dieses Jahres einen Käufer für Perceive. Sobald der Deal abgeschlossen ist, wird erwartet, dass die meisten der 44 Mitarbeiter von Perceive zu Amazon wechseln. Amazon sagte, es erwarte nicht, dass der Deal einer behördlichen Genehmigung bedürfe, und nannte es eine Routineübernahme.

Einführung des Chips von Perceive

Informationen zeigen, dass Perceive von den Co-CEOs Murali Dharan und Steve Teig geleitet wird. Das Unternehmen beschäftigt Mitarbeiter auf der ganzen Welt. Das Unternehmen wird ein Labor in Idaho betreiben. Teig trieb die Entwicklung von Perceive während seiner Amtszeit als Chief Technology Officer von Xperi voran, wo er die Technologieentwicklung, einschließlich der wichtigsten Audio- und Bildinnovationen, überwachte und gleichzeitig das Team für maschinelles Lernen des Unternehmens leitete. Dharan, der zuvor für die strategische Ausrichtung, das Management und das Wachstum des Lizenzgeschäfts von Xperi verantwortlich war, ist nun für die Leitung des Geschäftsbetriebs von Perceive verantwortlich, einschließlich Vertrieb, Marketing, Kundenerfolg und Betrieb.

Perceive bietet Produkte an, die große KI-Modelle auf Edge-Geräten bedienen. Sein Flaggschiffprodukt ist der Ergo AI-Prozessor, der neuronale Netze auf Rechenzentrumsebene in einer Vielzahl von Umgebungen ausführen kann, selbst wenn die Leistung begrenzt ist.

Berichten zufolge handelt es sich dabei um einen KI-Prozessor, der Edge-Geräten bahnbrechende Leistung und Energieeffizienz verleiht. Kann große neuronale Netze mit voller Bildrate betreiben und unterstützt eine Vielzahl von Netzwerkarchitekturen und -typen, einschließlich Standard-CNN, RNN, LSTM und mehr. Ergo ist flexibel und leistungsstark genug, um ein breites Spektrum maschineller Lernaufgaben zu bewältigen, von der Objektklassifizierung und -erkennung über Bildsegmentierung und -haltung bis hin zur Audiosignalverarbeitung und Sprache. Sie können es sogar zum Multitasking auffordern, da Ergo mehrere Netzwerke gleichzeitig betreiben kann.

Trotz der Rechenleistung von Ergo ist kein externes DRAM erforderlich, und sein kleines Gehäuse von 7 mm x 7 mm macht es ideal für den Einsatz in kompakten Geräten wie Kameras, Laptops oder AR/VR-Brillen.

Laut Perceive ist Ergo 20- bis 100-mal energieeffizienter als andere Produkte und benötigt nur 9 mW Rechenleistung, um Rückschlüsse auf 30-fps-Videos zu ziehen. Dies bedeutet, dass Ihr Gerät eine beispiellose Akkulaufzeit bietet und weniger Wärme erzeugt, was ein kleineres, vielseitigeres Paket ermöglicht.

Anfang 2023 brachte Perceive den neuen Ergo 2 AI-Prozessor auf den Markt. Berichten zufolge kann der Chip die erforderliche Leistung für komplexere Anwendungsfälle bereitstellen, einschließlich solcher, die Transformatormodelle, größere neuronale Netze, mehrere gleichzeitig laufende Netze und multimodale Eingaben erfordern, und gleichzeitig eine branchenführende Energieeffizienz beibehalten.

Steve Teig, Gründer und CEO von Perceive, ging auf die Marktchancen für die neuesten Ergo-Chips ein und sagte: „Mit den neuen Ergo 2-Prozessoren haben wir die Möglichkeiten erweitert, die wir Geräteherstellern bieten, um ihre besten Chips ihrer Klasse zu bauen.“ zu ehrgeizigen Produkten, „einschließlich Transformationsmodellen für die Sprach- oder Bildverarbeitung, Videoverarbeitung mit höherer Bildrate und sogar der Kombination mehrerer großer neuronaler Netze in einer einzigen Anwendung.“

Ergo 2 läuft viermal schneller als der Ergo-Chip der ersten Generation von Perceive und verfügt über weitaus mehr Rechenleistung als typische Chips, die für Mikro-ML entwickelt wurden. Produktentwickler können jetzt fortschrittliche neuronale Netze wie YOLOv5, RoBERTa, GAN und U-Nets nutzen, um schnell genaue Ergebnisse zu liefern. Die gesamte Ergo 2-Verarbeitung erfolgt auf dem Chip und erfordert keinen externen Speicher, wodurch Energieeffizienz, Datenschutz und Sicherheit verbessert werden. Der Ergo 2-Chip ermöglicht:

1.106 Schlussfolgerungen pro Sekunde mit MobileNet V2

979 Schlussfolgerungen pro Sekunde beim Ausführen von ResNet-50

Beim Ausführen von YoloV5-S werden 115 Inferenzen pro Sekunde ausgeführt

Um die für den Betrieb dieser großen Netzwerke erforderlichen Leistungssteigerungen bereitzustellen, verwendet der Ergo 2-Chip eine Pipeline-Architektur und ein einheitliches Speicherdesign, was seine Flexibilität und Gesamtbetriebseffizienz erhöht. Dadurch kann Ergo 2 Sensoren mit höherer Auflösung und ein breiteres Anwendungsspektrum unterstützen, darunter:

Sprachverarbeitungsanwendungen wie Speech-to-Text und Satzvervollständigung

Audioanwendungen wie akustische Echounterdrückung und umfassendere Erkennung von Audioereignissen

Anspruchsvolle Videoverarbeitungsaufgaben wie Video-Superauflösung und Posenerkennung.

Der Ergo 2-Prozessor misst 7 mm x 7 mm, wird von GlobalFoundries auf der 22FDX-Plattform hergestellt und benötigt zum Betrieb kein externes DRAM. Aufgrund seines geringen Stromverbrauchs ist auch keine Kühlung erforderlich. Der Chip kann mehrere heterogene Netzwerke gleichzeitig betreiben und liefert intelligente Video- und Audiofunktionen für Geräte wie Kameras der Unternehmensklasse, die für Sicherheits-, Zugangskontroll-, Wärmebild- oder Einzelhandelsvideoanalysen verwendet werden, die für industrielle Anwendungsfälle einschließlich visueller Inspektion geeignet sind Konsumgüter wie Laptops, Tablets und fortschrittliche Wearables.

Die Geschichte der selbst entwickelten Chips von AWS

AWS baut seit Jahren sein eigenes, kundenspezifisches Silizium für KI-Workloads und Cloud-Optimierung auf, vor allem dank der Übernahme von Annapurna Labs durch das Unternehmen vor mehr als einem Jahrzehnt. Dies hat dazu geführt, dass AWS in den letzten Jahren eigene Graviton-Prozessoren, Inferentia-Chips und Trainium-Prozessoren für maschinelles Lernen entwickelt hat, um KI-Modelle in der Cloud zu trainieren.

In diesem Jahr hat Amazon bei der Weiterentwicklung der Technologie der künstlichen Intelligenz (KI) einen großen Schritt nach vorne gemacht.

Auf seiner jährlichen AWS re:Invent-Konferenz kündigte AWS zwei neue benutzerdefinierte Chips an: AWS Trainium2 und Graviton4. Die beiden Chips stellen einen mutigen Versuch von Amazon Web Services (AWS) dar, der wachsenden Nachfrage nach KI-Funktionen gerecht zu werden, insbesondere da der Markt mit einem starken Mangel an leistungsstarken Grafikprozessoren (GPUs) konfrontiert ist, die hauptsächlich von Nvidia hergestellt werden.

Der Bedarf an verbesserter Rechenleistung ergibt sich aus der zunehmenden Beliebtheit der generativen künstlichen Intelligenz, die eine leistungsstarke Infrastruktur zum Trainieren und Bereitstellen von Modellen erfordert. Berichten zufolge sind Nvidias GPUs bis 2024 ausverkauft, und Branchenquellen, darunter der CEO von TSMC, gehen davon aus, dass diese Versorgungskrise bis 2025 andauern könnte. Vor diesem Hintergrund zielen die neuen Chips von Amazon darauf ab, die Abhängigkeit von Nvidia zu verringern, indem sie eine speziell auf KI-Workloads zugeschnittene Alternative bieten.

Der Trainium2-Chip ist für das Training groß angelegter KI-Modelle konzipiert, mit einer viermal höheren Leistung als die vorherige Chipgeneration und einer doppelt so hohen Energieeffizienz als die vorherige Chipgeneration. Laut Amazon schafft der Chip 65 Exaflops, wenn er in einem Cloud-Cluster von bis zu 100.000 Einheiten eingesetzt wird. Diese Fähigkeit reduziert die Zeit zum Trainieren komplexer Modelle, beispielsweise solcher mit Hunderten von Milliarden Parametern, von Monaten auf Wochen. Diese Fortschritte machen Trainium2 zu einem führenden Anbieter von KI-Trainingsinfrastruktur.

Der Trainium2-Chip ist für sein Potenzial bekannt und hat bereits das Interesse mehrerer Branchenakteure geweckt, darunter Anthropic, ein Unternehmen, das sich auf die Entwicklung benutzerfreundlicher KI-Modelle konzentriert.Mitbegründer Tom Brown betonte, dass Trainium2 eine schnelle Skalierung und eine bis zu viermal schnellere Verarbeitung als das Vorgängermodell ermöglichen werde. Partnerschaften zwischen AWS und Unternehmen wie Anthropic veranschaulichen den wachsenden Trend, proprietäre Cloud-Technologie zur Optimierung von KI-Operationen zu nutzen.

Der Graviton4-Chip hingegen ist der bisher leistungsstärkste und effizienteste Prozessor von Amazon und auf eine Vielzahl von Cloud-Workloads zugeschnitten. Im Vergleich zum Graviton3 der vorherigen Generation soll dieser Chip der vierten Generation die Leistung um 30 %, die Anzahl der Kerne um 50 % und die Speicherbandbreite um 75 % steigern. Diese Verbesserungen ermöglichen es Benutzern, die Betriebskosten zu senken und die Datenverarbeitungsgeschwindigkeit zu erhöhen, was es ideal für Unternehmen macht, die Hochleistungsdatenbanken und intensive Analyseanwendungen betreiben.

Zu den ersten Anwendern von Graviton4 zählen Unternehmen wie Datadog, Epic Games und SAP. Roman Visintine, Chef-Cloud-Ingenieur bei Epic, wies beispielsweise darauf hin, dass der Chip bei latenzempfindlichen Workloads eine gute Leistung erbringt und besonders für Online-Gaming-Erlebnisse von Vorteil ist. In einem hart umkämpften Umfeld, in dem ein schneller Datenzugriff und eine schnelle Datenverarbeitung für den Erfolg entscheidend sind, ist dieser Trend zur Cloud-Service-Optimierung von entscheidender Bedeutung.

Die Ankündigung von Amazon unterstreicht auch einen größeren Trend in der Technologiebranche, in der Unternehmen zunehmend in maßgeschneiderte Chiplösungen investieren, um spezifische Computeranforderungen zu erfüllen, insbesondere Aufgaben im Bereich künstliche Intelligenz und maschinelles Lernen. Durch die Entwicklung proprietärer Hardware hofft Amazon, sich zu differenzieren und seine Abhängigkeit von etablierten Chipherstellern wie Nvidia und AMD zu verringern.

Da die KI-Technologie weiter wächst und in verschiedenen Bereichen, vom Gesundheitswesen bis zur Unterhaltung, immer mehr an Bedeutung gewinnt, wird der Bedarf an effizienten, leistungsstarken Chips nur noch zunehmen. Technologieanalysten gehen davon aus, dass die Einführung dieser neuen Amazon-Chips nicht nur sofort den aktuellen Bedarf decken, sondern auch den Grundstein für die zukünftige Entwicklung künstlicher Intelligenz legen wird.

Überraschenderweise kommt die Einführung dieser Chips zu einem strategischen Zeitpunkt, da Microsoft auch eine eigene Chipentwicklung für künstliche Intelligenz und Cloud-Dienste angekündigt hat. Dies hat zu einem harten Wettbewerb im Bereich der KI-Hardware geführt und Unternehmen dazu veranlasst, schnell Innovationen einzuführen und Grenzen zu verschieben.

Es wird erwartet, dass AWS Trainium2- und Graviton4-Chips in naher Zukunft für Kunden verfügbar sein werden, wobei Trainium2 irgendwann im nächsten Jahr auf den Markt kommt und Graviton4 bereits in der Vorschau ist. Da sich die Technologiebranche weiterhin in Richtung Cloud Computing und auf künstlicher Intelligenz basierender Lösungen verlagert, ist Amazon bereit, eine wichtige Rolle bei dieser digitalen Transformation zu spielen.

KI-Chips haben großes Potenzial

AWS entwickelt häufig Chips, die nicht nur die Geschäftsanforderungen des Unternehmens erfüllen, sondern beweist auch einmal mehr, dass KI-Chips ein großes Potenzial haben, das sich nicht nur in der Cloud, sondern auch auf der Geräteseite widerspiegelt.

Laut Futurum Intelligence wird Nvidia bis 2023 92 % des KI-GPU-Marktes und 75 % des gesamten KI-Halbleitermarkts für Rechenzentren ausmachen. Diese Dominanz wird in einem bereits riesigen Markt anhalten, der bis 2024 voraussichtlich um fast die Hälfte wachsen wird.

Das Analystenunternehmen schätzt, dass der Gesamtmarktwert von Prozessoren und Beschleunigern für Anwendungen der künstlichen Intelligenz in Rechenzentren 56,3 Milliarden US-Dollar erreichen wird, was einer Steigerung von 49,3 % gegenüber dem jährlichen Marktwert von 37,7 Milliarden US-Dollar im Jahr 2023 entspricht. Marktanalysten gehen davon aus, dass der Markt in den nächsten fünf Jahren mit einer durchschnittlichen jährlichen Wachstumsrate von 29,7 % wachsen wird, sodass die Marktgröße im Jahr 2026 auf 98,4 Milliarden US-Dollar und im Jahr 2028 auf 138,3 Milliarden US-Dollar steigen wird.

Futurum unterteilt den Markt für KI-Rechenzentrumsprozessoren in vier Kategorien: CPUs, GPUs, spezialisierte Beschleuniger (sogenannte XPUs) und proprietäre Cloud-Beschleuniger, die von Unternehmen wie Google, AWS und Microsoft hergestellt werden.

Im Jahr 2023 werden CPUs 20,5 % des Marktes ausmachen, GPUs werden 73,5 % des Marktes ausmachen und XPU und Cloud-spezifische Produkte werden jeweils 3 % ausmachen.

1. Im Jahr 2023 werden CPUs 20 % der KI-Verarbeitung in Rechenzentren ausmachen und weiterhin eine wichtige Rolle spielen. Futurum schätzt, dass sie über einen Zeitraum von fünf Jahren mit einer durchschnittlichen jährlichen Wachstumsrate von 28 % wachsen werden, von 7,7 Milliarden US-Dollar im Jahr 2023 auf 26 Milliarden US-Dollar im Jahr 2028. Futurum schätzt, dass Nvidia im Jahr 2023 einen Marktanteil von 37 % haben wird, gefolgt von Intel mit 23 %.

2. Bis 2023 werden GPUs 74 % der in Rechenzentrums-KI-Anwendungen verwendeten Chipsätze ausmachen und über einen Zeitraum von fünf Jahren eine durchschnittliche jährliche Wachstumsrate von 30 % verzeichnen, von 28 Milliarden US-Dollar im Jahr 2023 auf 102 Milliarden US-Dollar im Jahr 2028. Futurum schätzt, dass Nvidia 92 % des KI-GPU-Marktes hält.

3. XPU wird über einen Zeitraum von fünf Jahren eine durchschnittliche jährliche Wachstumsrate von 31 % verzeichnen und von 1 Milliarde US-Dollar im Jahr 2023 auf 3,7 Milliarden US-Dollar im Jahr 2028 wachsen.

4. Öffentliche Cloud-KI-Beschleuniger werden über einen Zeitraum von fünf Jahren eine durchschnittliche jährliche Wachstumsrate von 35 % verzeichnen und von 1,3 Milliarden US-Dollar im Jahr 2023 auf 6 Milliarden US-Dollar im Jahr 2028 ansteigen.

Futurum schließt KI-Prozessoren und -Beschleuniger von dieser Studie aus, wenn sie nicht für die öffentliche Nutzung in Rechenzentren verfügbar sind, und schließt daher KI-Chipsätze aus, die von Meta, Tesla und Apple entwickelt und verwendet werden.

Aus geografischer Sicht dominiert Nordamerika den Markt und wird bis 2023 55 % des Marktanteils ausmachen. Als wichtige Märkte folgen Europa, der Nahe Osten und Afrika (EMEA) und der asiatisch-pazifische Raum (APAC), während Lateinamerika (LATAM) eine sich entwickelnde Region mit großem Wachstumspotenzial darstellt.

Visuelle und Audioanalysen sind die größten Anwendungsfälle im Jahr 2023. Futurum prognostiziert, dass die drei wichtigsten Anwendungsfälle im Jahr 2028 visuelle und akustische Analyse, Simulation und Modellierung sowie Textgenerierung, -analyse und -zusammenfassung sein werden.

Speziell für Edge-KI prognostiziert eine neue Studie von Omdia, dass der Markt für Edge-KI-Prozessoren bis 2028 einen Umsatz von 60,2 Milliarden US-Dollar generieren wird, mit einer durchschnittlichen jährlichen Wachstumsrate von 11 %.

Omdias neueste Edge-Prozessor-Prognose geht davon aus, dass das Umsatzwachstum durch die gestiegene Nachfrage nach Hardware vorangetrieben wird, da verschiedene Branchen und Geräte künstliche Intelligenz einsetzen. Einer der Bereiche, die das Marktwachstum vorantreiben, ist das PC-Segment mit zunehmendem Produktangebot von großen Anbietern wie Intel, AMD und Apple. Berichten zufolge versuchen PC-Anbieter, die Integration von KI-Prozessoren in ihre Geräte als „Alleinstellungsmerkmal“ zu vermarkten.

Neben dem Personalcomputerbereich hebt der Bericht auch den schnellen Einsatz von Prozessoren für künstliche Intelligenz in Bereichen wie Automobilen, Drohnen, Sicherheitskameras und Robotern hervor.

Daraus können wir die Absichten hinter der AWS-Übernahme erkennen.