Nachricht

Der Chip-Gigant hat wieder einen Höhenflug hinter sich, wer steckt dahinter?

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Am 30. Juli fiel der Aktienkurs von Nvidia um 7 %, was den größten Rückgang des Unternehmens seit drei Monaten darstellte. Der Marktwert schwand über Nacht um 193,4 Milliarden US-Dollar und sank auf 2,55 Billionen US-Dollar.

Vom 10. bis 30. Juli brach der Aktienkurs von NVIDIA um 23 % ein, von 134,91 US-Dollar pro Aktie auf 103,73 US-Dollar. Zuvor schien die ununterbrochen steigende Dynamik des Unternehmens die Anleger dazu zu bringen, die Risiken zu ignorieren.

In den letzten zwei Wochen haben Anleger Geld von großen Technologieaktien wie Nvidia abgezogen, da sie zunehmend besorgt waren, dass große Unternehmen Schwierigkeiten hatten, mit ihren KI-Ausgaben Rendite zu erzielen.

Technische Analysten wiesen darauf hin, dass eine solche Verschiebung Spielraum für einen weiteren Rückgang des Aktienkurses von Nvidia lässt.

01

Apples Schuld?

Der starke Rückgang des Nvidia-Aktienkurses könnte mit Apple zusammenhängen.

Am 29. Juli gab Apple in einem technischen Dokument bekannt, dass zwei Modelle seines künstlichen Intelligenzsystems (KI) auf von Google entwickelten Cloud-Chips trainiert wurden. Darüber hinaus hat Apple für einige Geräte auch eine Vorschauversion von Apple Intelligence veröffentlicht.

Apple erwähnt Google oder Nvidia in seinem 47-seitigen Papier nicht, weist jedoch darauf hin, dass sein Apple Foundation Model (AFM) und seine AFM-Server auf TPU-Clustern in der Cloud trainiert sind. In dem Dokument heißt es, dass das System es Apple ermöglicht, AFM-Modelle effizient und skalierbar zu trainieren, darunter AFM-on-Device-, AFM-Server- und größere Modelle.

Laut Apple wird AFM-on-Device auf einem einzigen Stück 2048 TPU v5p-Chips trainiert, dem fortschrittlichsten TPU, das im Dezember 2023 verfügbar ist. Der AFM-Server ist auf 8192 TPU v4-Chips trainiert, die so konfiguriert sind, dass sie als 8 Slices über das Rechenzentrumsnetzwerk zusammenarbeiten.

Google setzt TPU seit langem in großen Mengen in Rechenzentren ein, um das Training und die Inferenz von KI-Modellen zu beschleunigen. Darüber hinaus betrachtet Google TPU nicht nur für den eigenen GebrauchCloud ComputingDienstleistungen werden Dritten zur Nutzung zur Verfügung gestellt und daraus Produkte zum Verkauf angeboten.

Googles neuestes TPU kostet weniger als 2 US-Dollar pro Stunde und der Chip muss drei Jahre im Voraus vorbestellt werden, um ihn nutzen zu können. Google führte erstmals 2015 TPUs für interne Workloads ein und stellte sie 2017 der Öffentlichkeit zur Verfügung. Sie sind heute die fortschrittlichsten kundenspezifischen Chips, die für künstliche Intelligenz entwickelt wurden.

Dennoch bleibt Google einer der Top-Kunden von Nvidia und verkauft den Zugriff auf Nvidia-Technologie auf seiner Cloud-Plattform.

Apple hat zuvor erklärt, dass Inferenz, bei der ein vorab trainiertes KI-Modell verwendet wird, um Inhalte zu generieren oder Vorhersagen zu treffen, teilweise auf Chips in Apples eigenen Rechenzentren erfolgen wird.

Apple veröffentlichte während der WWDC 2024 im Juni relevante technische Dokumente, aus denen hervorgeht, dass Ingenieure neben der Verwendung von Hardware wie Apples eigenen Prozessoren und ihrem eigenen Software-Framework in Apple Intelligence auch ihre eigenen GPUs in Kombination mit Google TPUs verwendeten, um das Training von Modellen für künstliche Intelligenz zu beschleunigen.

Nvidia sieht sich einem zunehmenden Wettbewerbsdruck ausgesetzt. Am Beispiel von Google baut der Technologieriese seinen Marktanteil durch selbst entwickelte KI-Chips weiter aus. Daten von TechInsights zeigen, dass Googles TPU-Auslieferungen im Jahr 2023 2 Millionen Einheiten erreichen werden, obwohl es etwas unter den 3,8 Millionen Einheiten von NVIDIA liegt, aber einen festen Platz in der Branche einnimmt und Nvidia eine starke Wachstumsdynamik aufweist . Gleichzeitig reduzieren Technologieriesen wie Microsoft schrittweise ihre Abhängigkeit von Nvidia und steigen auf Chips anderer Konkurrenzmarken um.

02

GPUs sind zu teuer

Neben der Gefahr der Einzelabhängigkeit schreckt auch der hohe Preis der Nvidia-GPUs viele Hersteller ab.

Berichten zufolge kosten KI-Server, die mit Nvidias Blackwell-GPU der nächsten Generation ausgestattet sind, jeweils bis zu 2–3 Millionen US-Dollar.

Nvidia hat zwei Referenzdesigns auf Basis der Blackwell-Architektur auf den Markt gebracht. Darunter ist der NVL36 mit 36 ​​B200-GPU-Beschleunigerkarten ausgestattet. Der Preis wurde bisher auf 1,8 Millionen US-Dollar geschätzt der Preis ist gestiegen. NVL72 hat seine Größe verdoppelt und ist mit 72 B200-Beschleunigerkarten ausgestattet. Der Startpreis wird voraussichtlich 3 Millionen US-Dollar betragen.

NVIDIA prognostiziert, dass die Auslieferungen von B200-Servern im Jahr 2025 voraussichtlich 60.000 bis 70.000 Einheiten erreichen werden, mit einem Gesamtpreis von 120 bis 210 Milliarden US-Dollar.

Derzeit sind AWS, Dell, Google, Meta, Microsoft usw. am Kauf von B200-Servern interessiert, und der Umfang übertrifft die Erwartungen.

KI-Server bestehen hauptsächlich aus CPUs, GPUs, FPGAs und anderen Prozessoren, die zur Bewältigung einer großen Anzahl von Rechenaufgaben verwendet werden. Im Vergleich zu herkömmlichen Servern erfordern KI-Server normalerweise eine leistungsstärkere Hardware, um die Anforderungen einer großen Datenverarbeitung zu erfüllen und komplexe Berechnungen. Aufgrund des höheren Preises dieser Hardware machen sie den größten Teil der Kosten von KI-Servern aus. Unter diesen ist die GPU der größte Kostenfaktor unter den verschiedenen Prozessoren.

Im Prozess des KI-Trainings und der Inferenz ist die GPU normalerweise die teuerste Hardware. Dies liegt daran, dass die GPU über eine starke Rechenleistung und parallele Verarbeitungsfähigkeiten verfügt, die den Trainings- und Inferenzprozess des KI-Modells beschleunigen können. Die meisten KI-Server sind mit mehreren GPUs ausgestattet, um den Anforderungen des Hochleistungsrechnens gerecht zu werden.

Da die GPU über eine hohe Rechenleistung verfügt, ist auch ihr Stromverbrauch hoch. Um die Rechenanforderungen von KI-Modellen zu erfüllen, müssen normalerweise mehrere GPUs konfiguriert werden, was den Stromverbrauch des Servers weiter erhöht. Ein hoher Stromverbrauch bedeutet, dass der Server im Betrieb eine größere Stromversorgung benötigt und höhere Stromrechnungen verursacht.

Im Vergleich zu CPUs verfügen GPUs über eine komplexere Architektur und mehr Komponenten, was bedeutet, dass die GPU-Wartung mühsamer und komplexer ist und professionellere Techniker für die Wartung und Verwaltung erfordert. Darüber hinaus ist aufgrund des hohen Stromverbrauchs der GPU auch ihr Kühlbedarf höher, was zusätzliche Kühlgeräte und Wartungskosten erfordert.

Mit der rasanten Entwicklung der KI-Technologie verbessert sich auch die GPU-Leistung ständig. Um wettbewerbsfähig zu bleiben, müssen viele Unternehmen häufig neue GPU-Versionen kaufen, was die Serverkosten erhöht.

Mit der Förderung von KI-Anwendungen beginnen immer mehr Unternehmen, KI-Server einzusetzen, was zu einer steigenden Nachfrage nach GPUs geführt hat. Wenn das Angebot die Nachfrage übersteigt, wird auch der Preis für GPUs steigen.

03

Druck der Konkurrenz

Die Konkurrenten von NVIDIA rüsten sich alle, und unter ihnen hat sich AMD, der auffälligste, in letzter Zeit gut geschlagen.

Am 30. Juli veröffentlichte AMD seinen Finanzbericht für das zweite Quartal 2024. Der Nettogewinn stieg im Vergleich zum Vorjahr um 881 %, der Umsatz aus dem Rechenzentrumsgeschäft verdoppelte sich und Nvidia nahm dadurch viel Geschäft weg.

Der Gesamtumsatz von AMD erreichte in diesem Quartal 5,835 Milliarden US-Dollar und übertraf damit nicht nur die vorherige Erwartung von 5,72 Milliarden US-Dollar, sondern erzielte auch ein Wachstum von 9 % gegenüber dem Vorjahr und 7 % gegenüber dem Vormonat. Der Nettogewinn erreichte 265 Millionen US-Dollar, eine Steigerung von 881 % gegenüber dem Vorjahr und eine Steigerung von 115 % gegenüber dem Vormonat.

Der Umsatz mit MI300, einem in Rechenzentren eingesetzten GPU-Chip, überstieg in einem einzigen Quartal 1 Milliarde US-Dollar, was zu einem deutlichen Umsatzanstieg in der Rechenzentrumssparte führte.

Die MI300-Serie ist eine von AMD Ende 2023 veröffentlichte KI-GPU, einschließlich MI300X, sowie integriertem CPU-Kern und GPU-Beschleuniger MI300A. Darunter MI300X-Benchmarks gegen Nvidias H100. Laut AMD liegt die Leistung des MI300X bei der Verwendung für KI-Training auf dem Niveau von NVIDIA H100. In Bezug auf die Argumentation übertrifft seine Leistung die von Konkurrenzprodukten. Am Beispiel eines einzelnen Servers mit 8 GPUs beträgt die Leistung der MI300X-Plattform beim Ausführen des BLOOM-Modells mit 176 Milliarden Parametern und des Llama2-Modells mit 70 Milliarden Parametern das 1,4- bis 1,6-fache der Leistung der H100-Plattform.

Su Zifeng, CEO von AMD, sagte, dass die KI-Chipverkäufe des Unternehmens „höher als erwartet“ seien und dass Microsoft den Einsatz von MI300-Chips als Rechenleistungsunterstützung für GPT-4 Turbo und zur Unterstützung von Microsofts Word, Teams usw. verstärkt. Mehrere Copilot-Dienste. Hugging Face ist einer der ersten Kunden, der die neue Microsoft-Cloud Azure einführt, die es Unternehmens- und KI-Kunden ermöglicht, mit einem einzigen Klick Hunderttausende Modelle auf dem MI300 bereitzustellen.

Im Juni dieses Jahres kündigte AMD eine Iterations-Roadmap an, die die Einführung des MI325X im vierten Quartal dieses Jahres und die Einführung der MI350-Serie und der MI400-Serie in den nächsten zwei Jahren plant. Darunter werden der M1300X und der MI325X die CDNA3 übernehmen Architektur, und der M1350 wird die CDNA4-Struktur übernehmen. MI400 wird die CDNA-Architektur der nächsten Generation übernehmen. AMD wird jedes Jahr neue Produktserien auf den Markt bringen. Aus Sicht der Branche entspricht diese Geschwindigkeit dem von Nvidia veröffentlichten Plan.

Darüber hinaus sagte Su Zifeng, dass die Nachfrage nach KI-Denkprozessen größer sein werde als nach Training. AI PC ist ein sehr wichtiger Teil der PC-Kategorie und der PC-Markt bietet eine gute Chance für das Umsatzwachstum für AMDs Geschäft.

In diesem Jahr beschleunigt AMD seinen KI-Einsatz durch Investitionen. Im Juli gab das Unternehmen 665 Millionen US-Dollar für die Übernahme von Silo AI aus, Europas größtem Labor für künstliche Intelligenz, das durchgängige KI-basierte Lösungen anbietet. Diese Übernahme gilt als wichtiger Schritt für AMD, um mit Nvidia gleichzuziehen.

Su Zifeng sagte, dass AMD in den letzten 12 Monaten zusätzlich zur Übernahme von Silo AI mehr als 125 Millionen US-Dollar in mehr als ein Dutzend Unternehmen für künstliche Intelligenz investiert habe, um das AMD-Ökosystem zu erweitern und die führende Position der AMD-Computing-Plattformen zu behaupten. AMD werde weiterhin in Software investieren, sagte sie, was einer der Gründe für die Investition in Silo AI sei.

Basierend auf hochwertiger GPU-Hardware, Entwicklungssoftware und Ökosystem konkurriert AMD auf die gleiche Weise wie Nvidia erfolgreich war.

04

NVIDIA hat auch Schwächen

Um mit NVIDIA zu konkurrieren, besteht die beste Strategie darin, Ihre Stärken zu nutzen und Schwächen zu vermeiden, d. h. Ihre eigenen Stärken zu nutzen, um die Schwächen von NVIDIA anzugreifen.

Obwohl die GPU-Parallelverarbeitungsfähigkeiten sehr stark sind, ist dies der Hauptgrund dafür, dass sie sich gut für das KI-Training eignet. Wenn Daten jedoch hin und her verschoben werden, verarbeitet die GPU sie nicht so schnell. Wenn große KI-Modelle ausgeführt werden, benötigen sie häufig eine große Anzahl von GPUs und eine große Anzahl von Speicherchips, die miteinander verbunden sind. Je schneller die Daten zwischen GPU und Speicher übertragen werden, desto besser ist die Leistung. Beim Training großer KI-Modelle bleiben einige GPU-Kerne fast die Hälfte der Zeit im Leerlauf und warten auf Daten.

Wenn eine große Anzahl von Prozessorkernen und riesiger Speicher zu In-Memory-Computing kombiniert werden können, kann die Komplexität der Verbindungen zwischen mehreren Chips erheblich reduziert und die Datenübertragungsgeschwindigkeit erheblich verbessert werden. Eine große Anzahl von Prozessorkernen ist innerhalb des Chips miteinander verbunden und kann hunderte Male schneller laufen als eine Kombination unabhängiger GPUs. Derzeit machen mehrere Startups solche Dinge, und die Entwicklung verdient Aufmerksamkeit.

Darüber hinaus müssen Sie auf einen langwierigen Krieg im Software- und Hardware-Ökosystem vorbereitet sein, um mit NVIDIA fertig zu werden. In dieser Hinsicht benötigen Sie einen starken Ressourcenhintergrund, um um Ihr Leben zu kämpfen. AMD und Intel machen das.

Darüber hinaus können neben dem Chip selbst weitere Anstrengungen bei der Chip-zu-Chip-Verbindung unternommen werden. NVIDIA ist in dieser Hinsicht nicht führend, Broadcom ist es.

Broadcom löst das Verbindungsproblem zwischen Chips und konkurriert nicht direkt mit Nvidia-GPUs. Obwohl Nvidia auch über eine eigene Chip-zu-Chip-Verbindungstechnologie verfügt, sind die Technologie und Produkte von Broadcom aus Sicht der gesamten Branche überlegen. Unter den acht größten KI-Serversystemen der Welt haben 7 eine von Broadcom-Technologie unterstützte Ethernet-Infrastruktur eingesetzt Es wird erwartet, dass bis 2025 alle sehr großen KI-Serversysteme über Ethernet mit Strom versorgt werden.

Broadcom ist am besten bei der Lösung von Kommunikationsbandbreitenproblemen im globalen 50-GB/s-SerDes-Markt vertreten. Seine SerDes-Schnittstelle wandelt parallele Daten mit niedriger Geschwindigkeit in serielle Daten mit hoher Geschwindigkeit um und wandelt diese dann wieder in parallele Daten um das empfangende Ende. Durch solche Vorgänge können Daten mit hoher Geschwindigkeit von einer TPU zur anderen übertragen werden, wodurch die Übertragungseffizienz erheblich verbessert wird.

Broadcoms Netcom-Produktumsatz profitiert ebenfalls vom Wachstum der KI und wächst im Jahresvergleich um 40 %. Aus dem Finanzbericht des Unternehmens geht hervor, dass der KI-Umsatz im zweiten Geschäftsquartal (Stand Mai dieses Jahres) im Vergleich zum Vorjahr um 280 % auf 3,1 Milliarden US-Dollar gestiegen ist und diese Zahl bis zum Ende dieses Geschäftsjahres voraussichtlich 11 Milliarden US-Dollar überschreiten wird .

05

Auf einen großen Rückgang folgte wieder ein großer Anstieg

Eine Reihe von Wettbewerbern üben Druck auf Nvidia aus, was ein wichtiger Grund für den Rückgang des Aktienkurses des Unternehmens ist. Allerdings verändert sich der Markt so schnell, dass die Menschen nicht rechtzeitig reagieren können.

Am Abend des 31. Juli stieg der Aktienkurs von Nvidia plötzlich stark an, mit einem Anstieg von mehr als 14 %, und sein Marktwert stieg an einem einzigen Tag um 326,9 Milliarden US-Dollar.

Nvidia war die erste Aktie, deren Marktkapitalisierung an einem Tag um mehr als 300 Milliarden US-Dollar stieg. Derzeit belegt NVIDIA die ersten drei Plätze in der Liste der US-Aktien mit eintägiger Marktwertsteigerung. Am 22. Februar und 23. Mai dieses Jahres stieg der eintägige Marktwert von NVIDIA um 276,6 Milliarden US-Dollar bzw. 217,7 Milliarden US-Dollar.

Morgan Stanley gab einen Forschungsbericht heraus, in dem es heißt, dass Nvidia angesichts der Tatsache, dass der Markt kürzlich verkauft wurde, obwohl die genauen Gründe unbekannt sind, davon ausgeht, dass es interessierten Anlegern gute Markteintrittschancen bieten kann, und es daher erneut in die Liste der Spitzenreiter aufgenommen hat Die Prognose und das Kursziel haben sich nicht geändert, mit einer Einstufung von „übergewichtet“ und einem Kursziel von 144 US-Dollar.

In nur zwei Tagen fiel der Aktienkurs von Nvidia stark und stieg dann stark an. Dies könnte mit dem knappen Angebot von Blackwell und der Schwierigkeit, alle Produkte pünktlich zu liefern, zusammenhängen.

Morgan Stanley sagte, dass die Produkte von Blackwell großes Interesse am Markt geweckt hätten, insbesondere die deutliche Verbesserung ihrer Argumentationsleistung, was die Kauflust der Kunden weiter ankurbele.

Es gibt jedoch Neuigkeiten in der Branche, dass es zu Verzögerungen beim Blackwell-GPU-Chip oder bei den mit dem Chip ausgestatteten Serverprodukten kommen könnte.

Obwohl die Leistung der Technologien und Produkte vieler Wettbewerber immer besser wird und Nvidia unter Druck setzt, sind die GPU-Produkte des Unternehmens derzeit und kurz- bis mittelfristig immer noch die Hauptkraft auf dem KI-Servermarkt und insgesamt Das Angebot übersteigt die Nachfrage. Da die Blackwell-GPUs, auf die sich viele Kunden freuen, kurz vor der Auslieferung stehen, wird die Nachricht, dass sich die Lieferung verzögern wird, definitiv den Appetit des Marktes anregen und zum Anstieg des Aktienkurses beitragen.