Nachricht

Cloud-Giganten sind auf der Flucht und 2 Millionen selbst entwickelte CPUs wurden veröffentlicht!Eine neue Runde der Chip-Umbildung hat begonnen

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


kluge Dinge
AutorZeR0
Herausgeber Mo Ying

Letzte Woche wurde der von Amazon Cloud Technology, dem weltweit größten Cloud-Computing-Riesen, unabhängig entwickelte Graviton4-Prozessor vollständig eingeführt und bot zunächst Unterstützung für die neue Instanz Amazon EC2 R8g.

Dieser Vorfall ist ziemlich emotional und es entsteht ein Déjà-vu-Gefühl, dass die Arm-Server-CPU alle Strapazen durchgemacht hat und alle Strapazen belohnt wurden.

Der Bereich der Server-CPU hat eine Reihe von Veränderungen durchgemacht. In den frühen Tagen wurde er von einer Gruppe optimierter Befehlssatz-Vorgänger dominiert, wurde jedoch später von der komplexen Befehlssatzarchitektur x86 angegriffen und untergraben. Als Arm, der Nachfolger des optimierten Befehlssatzes, in die Rechenzentrumsbranche einsteigen will, hat x86 den Markt bereits vollständig dominiert.

Tatsächlich war Arm bereits 2008 begierig darauf, diesen aufstrebenden Markt auszuprobieren. Das Ergebnis war, dass es zehn Jahre später, nachdem das Wasser mehrmals getestet wurde, nicht in der Lage war, sporadische Spritzer hervorzurufen.

Das erste Ticket für den Eintritt in den Rechenzentrumsmarkt wurde von Amazon Cloud Technology verschickt, dem großen Bruder in der Cloud-Computing-Branche.

Damals veröffentlichte Amazon Cloud Technology einen „drei aufeinanderfolgenden Angriff“:

1. Im Januar 2015 erwarb das Unternehmen unerwartet Annapurna Labs, ein israelisches Chipdesign-Unternehmen, was große Aufmerksamkeit in der Branche auf sich zog.

2. Im Jahr 2017 wurde Amazon Nitro, der erste selbst entwickelte Netzwerkchip, auf den Markt gebracht und damit der weltweit erste kommerzielle DPU-Chip auf die Bühne der Geschichte gebracht.

3. Im Jahr 2018 wurde der erste Amazon Graviton-Prozessor veröffentlicht, der der Arm-Server-CPU einen klaren Platz in der Geschichte der Rechenzentren einräumt.

Anschließend führte Amazon Cloud Technology intensiv eine lehrbuchartige mehrzeilige kundenspezifische Chipforschung durch, und auch andere große chinesische und amerikanische Hersteller folgten dem Trend selbst entwickelter Prozessoren. Das lange Tauziehen der Server-CPUs hat sich endlich von einer einseitigen Zerschlagung von x86 zu einer wachsenden Dynamik im Arm-Lager gewandelt.

Graviton hat sich nach und nach zur am weitesten verbreiteten Arm-Server-CPU der Welt entwickelt, und die Amazon Cloud-Technologie gilt als „Hoffnung des ganzen Dorfes“, die das Arm-Ökosystem dazu veranlasst, sein Territorium in Rechenzentren zu erweitern. Ein Bericht von Bernstein aus dem letzten Jahr zeigte, dass Amazon Cloud Technology mehr als die Hälfte des globalen Arm-Server-CPU-Marktes ausmacht.


▲Amazon Cloud Technology hat in fünf Jahren fünf Graviton-Prozessoren herausgebracht (Quelle: Zhidongxi)

Heutzutage ist es für große Hersteller üblich, selbst entwickelte Chips zu entwickeln, doch nur wenigen gelingt dies. Dieses von Amazon Cloud Technology in fünf Jahren selbst entwickelte Referenzlehrbuch für Server-CPUs ist es wert, immer wieder durchgekaut zu werden.

1. Sechs Jahre Selbstforschung und Innovation im Bereich CPU, die den Weg für Arm-Serverchips ebnen

Die erste Generation eröffnete die Bergstraße, die zweite Generation legte die Flüsse und Seen an.

Dies ist eine wahre Darstellung des Erfolgs der selbst entwickelten Serverchips von Amazon Cloud Technology: Der im November 2018 veröffentlichte Graviton-Prozessor war der erste Schuss selbst entwickelter CPUs großer Cloud-Computing-Unternehmen, ein Jahr später erschien der Nachfolger Graviton2 Da die Arm-Server-CPU offiziell in den Wettbewerb auf dem Rechenzentrumsmarkt einsteigt, konkurriert sie mit x86.

Graviton2 integriert 30 Milliarden Transistoren, verfügt über eine viermal so große Kernanzahl wie die Vorgängergeneration und hat den L1/L2-Cache verdoppelt. Die Busbandbreite erreicht 2 TB/s und erreicht damit eine 7-fache Leistungssteigerung im Vergleich zur Vorgängergeneration. Im Vergleich zu ähnlichen x86-basierten Instanzen wird die Leistung von Graviton2-basierten Instanzen um 40 % verbessert und die Kosten pro Instanz um 20 % gesenkt.

Die hervorragende Leistung bei geringem Stromverbrauch hat Amazon Cloud Technology dazu veranlasst, allgemeine Arbeitslasten auf Graviton2 zu verlagern, um Strom und Kosten zu sparen. Seitdem ist die Akzeptanzrate der Graviton-Serie sprunghaft angestiegen und die abgedeckten Workloads haben sich vom anfänglichen Cache und Web auf Datenanalyse, maschinelles Lernen, Hochleistungsrechnen usw. ausgeweitet.

Der anfängliche Erfolg von Graviton auf dem Markt kann als ein Knotenpunkt bezeichnet werden, der Arms Schicksal verändert.

Dahinter hat sich Amazon Cloud Technology viele Gedanken über die zugrunde liegende Innovation gemacht: Erstmals nutzt es keine synchrone Multi-Threading-Technologie mehr, sondern realisiert die ausschließliche Nutzung von Single-Thread-Ressourcen des physischen Kerns und ermöglicht so jede vCPU um ausschließlich einen physischen Kern zu belegen, wodurch vCPUs isolierter werden, was nicht zu Leistungsschwankungen aufgrund von Ressourcenkonflikten führt.


Von der ersten bis zur zweiten Generation hat Graviton durch die Erhöhung der Anzahl der Kerne erhebliche Leistungsverbesserungen erzielt, doch bis zur dritten Generation muss Amazon Cloud Technology weitere Designinnovationen integrieren.

Die Erhöhung der Anzahl der Kerne und die Erhöhung der Hauptfrequenz sind zwei gängige Methoden zur Leistungssteigerung. Die im Jahr 2021 erschienene dritte Generation des Graviton 3 übernimmt diese Ideen nicht. Die Anzahl der Kerne bleibt unverändert und die Hauptfrequenz wird nur geringfügig erhöht. Da eine Erhöhung der Frequenz für große Rechenzentren riskant ist, kann sie zu einem hohen Energieverbrauch führen und erfordert verbesserte Stromversorgungs- und Kühlkonfigurationen, was letztendlich zu einem Anstieg der Nutzungskosten der Kunden führt.

Graviton3 hat mehrere Innovationen vorgenommen, die sich von seinem Vorgänger unterscheiden:

1. Beim Chiplet-Design werden 7 Siliziumchips zusammengepackt.

2. Die parallele Methode auf Befehlsebene wird übernommen, um die Anzahl der Befehle zu erhöhen, die in einem einzelnen Kernzyklus ausgeführt werden können, sodass der Kern mehr Aufgaben erledigen kann.

3. Für Speicherbandbreite und verzögerungsempfindliche Arbeitslasten wird der Speicherplatz um 40 % erhöht und DDR5 wird verwendet, um die Speicherkanalbandbreite um 50 % zu erhöhen.

Dadurch kann Graviton3 im Vergleich zur Vorgängergeneration die Leistung von Anwendungs-Workloads um 25 % steigern und den Stromverbrauch im Vergleich zu x86-Instanzen um bis zu 60 % senken. Mit einer integrierten Hardwarebeschleunigungseinheit für maschinelles Lernen erreicht dieser Prozessor außerdem eine dreifache Verbesserung der Leistung beim maschinellen Lernen und wird von KI-Forschern und Unternehmen für MLOps in der Cloud verwendet.


Graviton3E wurde 2022 eingeführt und ist speziell für Gleitkomma- und Vektoranweisungsoperationen optimiert. Die Vektorrechenleistung ist doppelt so hoch wie die von Graviton3. Es eignet sich besonders für Anwendungsszenarien wie künstliche Intelligenz/maschinelles Lernen und Hochleistungsrechnen.

Die neueste Generation von Graviton4 verwendet einen besseren Neoverse-V2-Kern und erhöht die Anzahl der Kerne auf 96 Kerne. Der L2-Cache jedes Kerns wird auf 2 MB verdoppelt und die Speicherbandbreite wird um 75 % erhöht.


Jede Graviton-Generation wird im Vergleich zur Vorgängergeneration zweistellige Leistungssteigerungen aufweisen und der Stromverbrauch pro Rechenleistungseinheit wird weiter sinken. Für die nachhaltige Entwicklung von Rechenzentren sind Energieeinsparung und Emissionsreduzierung äußerst wichtig. Namhafte Cloud-Kunden wie Twitter, Databricks, Formel 1 und Snap haben alle auf Graviton basierende Dienste genutzt und deren Vorteile bei der Kostenreduzierung und Effizienzsteigerung gelobt.

Laut ausländischen Medienberichten wird Graviton bis Mitte 2022 etwa 20 % der CPU-Instanzen von Amazon Cloud Technology ausmachen, wobei die meisten davon Graviton2 sein werden. Etwa 50 % der neuen virtuellen Maschineninstanzen von Amazon Cloud Technology werden die Graviton-Serie sein.

Einige Cloud-Kunden haben öffentlich bestätigt, dass sie durch die Anmietung von Graviton-Diensten 10 bis 40 % der Rechenkosten eingespart haben.

Als früher Nutzer von Graviton hat Daewoo Unlimited Graviton2 verwendet, um die Kosten für Big-Data-Operationen um 20 % zu senken; Tuya, das Graviton2-Instanzen in großem Umfang nutzt, hat auch ein Upgrade auf Instanzen der neuen Generation durchgeführt und so die Verschlüsselungs- und Entschlüsselungsleistung der IoT-Plattform verbessert um 50 %.

Nach Angaben des Marktforschungsunternehmens IDC beträgt der Marktanteil der Arm-Serverlieferungen im ersten Quartal 2023 etwa 10 %. Zu diesem Zeitpunkt wurden die ökologischen Probleme von Arm auf dem Servermarkt zunächst gelöst.

Bisher hat Amazon Cloud Technology mehr als 2 Millionen Graviton-Prozessoren in 33 Regionen und mehr als 100 Verfügbarkeitszonen auf sechs Kontinenten weltweit bereitgestellt. Diese Prozessoren steuern mehr als 150 Recheninstanzen und werden von mehr als 50.000 Unternehmen und Entwicklern auf der ganzen Welt verwendet.


2. Der einzige Cloud-Hersteller, der die Arm-Architektur in großem Umfang einsetzt

Bei der Betreuung von Cloud-Kunden stellte das Team von Amazon Cloud Technology fest, dass es, wenn es das Preis-Leistungs-Verhältnis der Datenverarbeitung für alle möglichen Workloads revolutionieren will, Instanzen völlig neu überdenken und sich mit der zugrunde liegenden Technologie, einschließlich benutzerdefinierter Chips, befassen muss.

Warum basiert der Chip auf der Arm-Architektur?

Für Amazon Cloud Technology ist dies sowohl eine Situation als auch ein zukunftsweisender Plan.

Erstens ist die Lizenz von Arm relativ einfach zu erhalten und bietet ein hohes Maß an Gestaltungsfreiheit, was es Amazon Cloud Technology erleichtert, Prozessoren zu entwickeln, die den Anforderungen des Cloud-Geschäfts besser gerecht werden.

Zweitens ist das Energiesparen seit langem ein großes Problem für Rechenzentren. Angesichts der Skaleneffekte kommt es darauf an, dass ein paar Watt pro Chip eingespart werden. Arm wurde auf dem Markt für mobile Prozessoren auf seine Vorteile wie hohe Energieeffizienz, hohe Rechenleistungsdichte und niedrige Kosten getestet.

Darüber hinaus ist Graviton, wie bereits erwähnt, sehr vorsichtig bei der Erhöhung der Frequenz und ergänzt die Leistung durch höhere Parallelität auf Befehlsebene, wodurch es hinsichtlich der Kostenleistung wettbewerbsfähiger wird. Bei hoher CPU-Auslastung belegt jede vCPU in Graviton einen physischen Kern, und es gibt kein Konkurrenzproblem. Die Geschwindigkeit kann weiterhin hoch gehalten werden, und der Preisvorteil wird deutlich.

Laut Amazon Cloud Technology wurde die Leistung der Amazon EC2 R8g-Instanz basierend auf dem Graviton4-Prozessor der neuen Generation im Vergleich zur R7g-Instanz der siebten Generation mit Graviton3 um 30 % verbessert, die Instanzgröße ist größer, vCPU und Speicher wurden erhöht um das Dreifache und bietet ein besseres Preis-Leistungs-Verhältnis für speicherintensive Arbeitslasten wie Datenbanken, In-Memory-Caching und Echtzeit-Big-Data-Analysen.

Im Vergleich zu R7g-Instanzen können R8g-Instanzen Webanwendungen um bis zu 30 %, Datenbanken um bis zu 40 % und große Java-Anwendungen um bis zu 45 % beschleunigen.

Seine Leistungs- und Kosteneffizienzvorteile wurden durch einige tatsächliche Tests bestätigt.


Laut einigen von Phoronix veröffentlichten Benchmark-Testergebnissen hat der neue Graviton4-Kern bei gleicher Anzahl an vCPUs ungefähr die gleiche Leistung wie Intel Sapphire Rapids und ist mit AMDs EPYC der vierten Generation vergleichbar, wenn es um Hochleistungsrechnen, Verschlüsselung und Code geht Kompilierung, Raytracing und Datenbanken, 3D-Modellierung und andere Workloads, der generationsübergreifende Fortschritt ist insgesamt sehr gut.


▲Nach Tests ist die auf Graviton4 basierende R8g-Instanz kostengünstiger als die auf Intel Xeon und AMD EPYC basierende Amazon Cloud Technology-Cloud-Instanz (Quelle: Phoronix.com)

Als einer der ersten Kunden von R8g-Instanzen teilte Honeycomb mit, dass die Durchsatzverbesserung von Graviton4 im Vergleich zum ersten Einsatz von Graviton vor vier Jahren sehr offensichtlich sei und sich der Durchsatz pro vCPU mehr als verdoppelt habe. Sie planen, den gesamten Workload auf Graviton4 zu migrieren, sobald die R8g-Instanzserie offiziell veröffentlicht wird.

Epic Games, die Produktionsfirma des Erfolgsspiels „Fortnite“, kommentierte, dass die auf dem neuesten Graviton4 basierende EC2 R8g-Instanz die schnellste EC2-Instanz sei, die sie getestet haben, und zu den „wettbewerbsfähigsten und latenzempfindlichsten Workloads“ gehöre. „Ausgezeichnete Leistung“ kann die Leistung von Spieleservern vollständig verbessern.

Vorläufige Testergebnisse in der SAP HANA Cloud mit R8g-Instanzen zeigen, dass R8g-Instanzen im Vergleich zu Graviton3-basierten Instanzen die analytische Leistung um bis zu 25 % und die Transaktions-Workload-Leistung um bis zu 40 % verbessern können.


▲Vergleich verschiedener Spezifikationen von R8g-Instanzen

Bisher hat nur Amazon Cloud Technology den groß angelegten Einsatz der Arm-Architektur wirklich erkannt.

Warum Amazon Cloud-Technologie? Wie Dai Wen, General Manager für Lösungsarchitektur bei Amazon Cloud Technology Greater China, auf dem diesjährigen China Summit sagte: „Nur in einer Cloud-Computing-Umgebung haben wir die Möglichkeit, solche Full-Stack-Innovationen von Anwendungen bis hin zu CPUs durchzuführen.“

Selbst entwickelte Chips sind auf dem Papier keine Innovationen. Sie erfordern nicht nur eine hohe Leistung, sondern auch eine ausreichende Stabilität, Zuverlässigkeit und ein hohes Maß an Sicherheit.

Die Verwendung derselben Arm-Mikroarchitektur bedeutet nicht, dass Sie eine CPU mit derselben Leistung herstellen können, und das Entwerfen eines Chips bedeutet nicht, dass Sie eine Massenproduktion und kommerziellen Erfolg erzielen können. Allein die Linearitäts- und Kommunikationsverzögerungsprobleme, die durch die Verbindung von Hunderten von CPU-Kernen verursacht werden, können viele Chipteams aus der Fassung bringen, ganz zu schweigen von den ökologischen Schwierigkeiten bei der Entwicklung von Arm-Serverchips.

Die Forschungs- und Entwicklungsideen von Amazon Cloud Technology basieren auf einem tiefen Verständnis der Cloud-Kunden-Workloads und der umgekehrten Durchdringung des Chip-Designs. Dieser kundenorientierte Ansatz ermöglicht Amazon Cloud Technologies eine kurzfristige Anpassung, um sich schnell an die Marktdynamik anzupassen.

Am Beispiel von Graviton4 hat Amazon Cloud Technology erstmals eine CPU-Architektur für praktische Anwendungen entwickelt. Die Designtechnik dieses Prozessors hat sich vom traditionellen MicroBenchmark-Benchmark-Bewertungssystem zu einer Bewertungsmethode entwickelt, die auf tatsächlichen Arbeitslasten basiert. Beispielsweise erfordert die Optimierung der Cassandra-Datenbank, der Groovy-Anwendung und des Nginx-Servers unterschiedliche Front-End- und Back-End-CPU-Parameter.

Die enorme Kundenzahl hat Hindernisse für die Amazon Cloud-Technologie geschaffen. Seine umfangreichen Rechenzentrumscluster auf der ganzen Welt können die Implementierung von Prozessoren der Graviton-Serie beherbergen. Der Skaleneffekt des weltgrößten Cloud-Computing-Unternehmens kann die Kosten der Amazon Cloud-Technologie effektiv verwässern.

Kontinuierlich innovative Cloud-Dienste ermöglichen Amazon Cloud Technology, die am häufigsten genutzten Anwendungen und deren Ressourcenverbrauchsmuster zu verstehen, um die technischen Punkte mit dem höchsten Nutzen für Benutzer auszuwählen, gezielte Optimierungen durchzuführen und Software- und Hardware-Stacks und sogar das CPU-Design schnell zu verbessern , passende vCPU und Hardware-Kern entwickeln.

Gleichzeitig nutzen die verschiedenen Hosting-Service-Produktlinien von Amazon eine einheitliche Infrastruktur, sodass Graviton-Innovationen zeitnah auf alle Hosting-Services angewendet werden können. Benutzer können problemlos von der kostengünstigen Verbesserung profitieren, die Graviton durch die Änderung der Computeroptionen bietet.

Benutzer müssen sich nur darum kümmern, welche Instanz ihre Anforderungen besser erfüllen kann, und Amazon Cloud Technology ist dafür verantwortlich, die Kosten für Softwaremigration und -lernen zu senken. Durch die umfassende Integration weiterer Verwaltungsdienste in Graviton wird die nahtlose Migration von x86 zu Arm einfach und schnell.

3. Wie wirken sich selbst entwickelte Chips auf Cloud Computing aus?

Heutzutage sind selbst entwickelte Chips zu einem Standardschritt für große Technologieunternehmen geworden, egal ob es darum geht, Kosten zu senken und die Effizienz zu steigern, Wettbewerbsvorteile aufzubauen, die Kontrollierbarkeit zu verbessern und die Abhängigkeit von Chipherstellern Dritter zu verringern überzeugen Sie nachgelagerte Kunden und Investoren.

Aber vor neun Jahren, als Amazon Cloud Technology die Führung bei der Entwicklung eigener Chips übernahm, war dies noch ein weit fortgeschrittenes Unterfangen.

Wenn man auf die Geschichte der Cloud-Computing-Entwicklung zurückblickt, gilt die Veröffentlichung der ersten EC2-Instanzdefinition (Elastic Cloud Computing) durch Amazon Cloud Technology im Jahr 2006 als historischer Moment. In der Folge akzeptierten nach und nach immer mehr Unternehmen das Konzept des Cloud Computing und begannen, ihre Anwendungen in die Cloud zu migrieren.

Jetzt kann Amazon Cloud Technology erfolgreich Hochleistungs-Computing-Cluster mit Zehntausenden von Knoten in der Cloud betreiben, um große Modelle zu trainieren, und Echtzeit-Streaming-Anwendungen mit hoher Parallelität in der Cloud verarbeiten. Dies war damals schwer vorstellbar. Sie müssen wissen, dass die erste EC2-Instanz von Amazon Cloud Technology eine Hauptfrequenz von nur 1,7 GHz, eine Netzwerkbandbreite von 250 Mbit/s, einen Speicher von weniger als 2 GB und eine mechanische Festplatte von nur 160 GB hat.

In den Anfangsjahren des Cloud-Computing-Geschäfts musste Amazon Cloud Technology viele heikle Probleme lösen, was das Team besonders beunruhigte: Wenn eine angepasste Version von Xen als Virtualisierungshypervisor verwendet wurde, egal wie viel Zeit für die Optimierung des Codes aufgewendet wurde , wäre die Virtualisierungsschicht immer Host-Ressourcen und x86-CPUs können den Netzwerkverkehr nicht gut verarbeiten.

Bis 2013 geriet Annapurna Labs, ein israelisches Chipunternehmen, ins Visier von Amazon Cloud Technology. Durch die Zusammenarbeit hat Amazon Cloud Technology erstmals die Netzwerkverarbeitung auf Hardware geschrieben. Die überraschende Umsetzungsleistung ließ Amazon Cloud Technology auf diesen herausragenden Partner aufmerksam werden: Im Januar 2015 gab Amazon Cloud Technology die Übernahme von Annapurna Labs bekannt und begab sich seitdem auf die Reise selbst entwickelter Chips.

Rückblickend war dies definitiv eine kluge Investition in die Geschichte der Amazon-Cloud-Technologie.

Nur zwei Jahre nach dieser Transaktion kündigte Amazon Cloud Technology die Virtualisierungsplattform Nitro an, die die gesamte Sicherheit, Verwaltung und Überwachung auf die Hardware verlagert und den Kunden fast 100 % der Host-Rechenleistung zur Verfügung stellt.

Seitdem hat Cloud Computing den Weg der vollständigen physischen Isolierung von Unternehmen und Infrastruktur eingeschlagen, und die Innovation der zugrunde liegenden Virtualisierungstechnologie und die Entwicklung übergeordneter Servertypen können parallel durchgeführt werden.

Dies führte zu einem entscheidenden Wendepunkt für EC2-Instanzen: Von 2006 bis 2017 stieg die Anzahl der EC2-Instanzen von 1 auf 70 Typen, und von 2017 bis 2023 wuchs die Anzahl der EC2-Instanzen plötzlich explosionsartig von 1 auf Aus 70 Typen wurden in 6 Jahren 750 Typen entwickelt, die für verschiedene Lasten geeignete Recheninstanzen bereitstellen können.

Als Eckpfeiler des Erfolgs von Nitro hat Amazon Cloud Technology drei Produktlinien entwickelt: Netzwerkchips, Server-CPUs sowie KI-Trainings- und Inferenzchips: Nitro-Netzwerkchips wurden zur fünften Generation weiterentwickelt und optimieren weiterhin die Netzwerkleistung, Speicherleistung und Sicherheit Verstärkung; Graviton Vier Generationen und fünf Modelle wurden veröffentlicht; KI-Inferenzchip Inferentia und KI-Trainingschip Trainium, die Benutzern andere KI-Beschleunigungsoptionen als GPUs bieten, indem sie kostengünstigere Inferenz- und Trainingsbeispiele bereitstellen.

Dies ermöglicht es Amazon Cloud Technology, die Flexibilität interner Full-Stack-Innovationen aufrechtzuerhalten: Von maßgeschneiderten Boards und Servern über tiefgreifende individuelle Chips im unteren Bereich bis hin zur horizontalen Erweiterung des selbst entwickelten Chip-Territoriums wird Amazon Cloud Technology schrittweise voranschreiten Der Übergang von Chips über Hardware zu Software Integration und Zusammenarbeit können nicht nur die Kosteneffizienz und Zuverlässigkeit des Unternehmens verbessern, sondern auch seine eigene Wettbewerbsfähigkeit stärken.

Die selbst entwickelten Chips werden mit den selbst entwickelten Speicherservern und Hochgeschwindigkeitsnetzwerksystemen von Amazon Cloud Technology verknüpft, wodurch mehr Chips effizient miteinander verbunden werden können, was die Rechenzeit erheblich verkürzt. Basierend auf diesen Innovationen kann Amazon Cloud Technology eine der anspruchsvollsten Aufgaben im Cloud Computing unterstützen – künstliche Intelligenz und maschinelles Lernen.

Auf dem jüngsten Amazon Cloud Technology Summit in New York gab Amazon Cloud Technology bekannt, dass 96 % der KI/ML-Einhörner ihr Geschäft auf Amazon Cloud Technology betreiben und 90 % der Unternehmen auf der Forbes AI 50-Liste 2024 sich für Amazon Cloud Technology entscheiden. Von 2023 bis heute hat Amazon Cloud Technology offiziell 326 generative KI-Funktionen veröffentlicht. Im gleichen Zeitraum hat die Zahl der offiziell verfügbaren maschinellen Lern- und generativen KI-Dienste die Zahl anderer Anbieter übertroffen.

Umfangreiche Anwendungsfälle und tiefe technische Anhäufung hängen immer eng zusammen. Diese erstaunliche Anzahl von KI-Anwendungsfällen bietet Amazon genügend praktische Beispiele, um Kunden Optionen zu bieten, mit denen sie den größten Nutzen erzielen können, und umfangreiches Kundenfeedback kann zur besten treibenden Kraft für das Chip-Design werden. Die kontinuierliche Weiterentwicklung der Chip-Technologie wird immer kostengünstigere Cloud-Dienste unterstützen und die integrative Entwicklung generativer KI fördern.

Fazit: Kein Chip ist die einzige Lösung für Cloud Computing

Es gibt viele Siliziumoptionen auf dem Markt, und Anbieter von Cloud-Infrastrukturen können eine Rolle dabei spielen, sie alle zusammenzuführen, um Innovationen von der Infrastruktur bis hin zu Cloud-Diensten besser zu ermöglichen.

Anders als bei unabhängigen Chipunternehmen besteht der Zweck der selbst entwickelten Chips von Amazon Cloud Technology nicht darin, am Marktwettbewerb teilzunehmen, sondern seinen Kunden einen „universellen Laden“ zur Verfügung zu stellen, der nicht nur selbst entwickelte Chips, sondern auch Mainstream-Mainstream-Produkte wie z B. Intel-CPUs und NVIDIA-GPUs. Der Kunde hat die Wahl, anhand der Profile dieser Chip-Instanzen die Produktkombination auszuwählen, die seinen Workload-Anforderungen am besten entspricht.

Die sechsjährige Entwicklung von Graviton hat die Geschichte der Implementierung von Arm-Server-CPUs erzählt. Arm bietet Amazon Cloud Technology die Grundlage für eine flexible Anpassung von CPUs, während Amazon Cloud Technology Veränderungen auf dem Server-Chip-Markt fördert und die beste Bestätigung für die Kosten- und Leistungs-Preis-Verhältnis-Vorteile von Arm auf dem Rechenzentrumsmarkt darstellt.

Solange Graviton noch Raum für Kostensenkungen und Effizienzsteigerungen hat, kann Amazon Cloud Technology weiterhin Preise senken, Gewinne teilen und die Dividenden aus Größe und Technologie an Cloud-Kunden zurückgeben.