Nachricht

Rechenleistung ist Leistung. Warum ist Nvidia zum „Drachen des Silicon Valley“ geworden?

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Dieser Artikel stammt von: Außen und innen, Autor: Zhou Xiao, Tan Jiuyun, Xie Fangchen, Herausgeber: Fu Xiaoling, Cao Binling

„Schaufeln zu verkaufen“ ist ein gutes Geschäft, aber es kann sein, dass es nicht so ist, wenn es immer an ein paar Bergleute verkauft wird und immer einem „Hauptkundenrisiko“ ausgesetzt ist.

So wie Nvidia eindeutig der dominierende Akteur bei KI-Chips ist, wachte Huang Renxun „jeden Morgen mit der Sorge auf, dass das Unternehmen bankrott gehen würde.“

Man erkennt, dass Nvidias Kunden seit jeher sehr konzentriert sind, wobei CR5 das ganze Jahr über mehr als die Hälfte ausmacht. Auf dem Höhepunkt im Jahr 2002 machten die fünf größten Kunden 65 % des Umsatzes aus, und auf die beiden größten Kunden entfielen erstaunliche 40 %. Nachdem Microsoft, der damalige große Finanzier, seinen Auftrag zurückgezogen hatte, brach die Leistung von NVIDIA ein und die Aktie Der Preis brach um 90 % ein.


Zu einer ähnlichen „Großkundenkrise“ kam es 2008 erneut, als die drei großen PC-Giganten Apple, Dell und HP gemeinsam ihre Bestellungen stoppten, und später, als Benchmark-Kunden wie Google und Tesla begannen, ihre eigenen Chips zu entwickeln.


Bis heute (Geschäftsjahr 2024) machen die beiden größten Kunden von NVIDIA immer noch 32 % des Umsatzes aus, und die fünf größten Kunden werden auf fast 50 % geschätzt. Eines der reservierten Punkte der Wall-Street-Analysten ist also, dass NVIDIA jedes Mal etwas veröffentlicht seinen Finanzbericht, seine große Kundenkonzentrationsquote berechnen.

Doch obwohl die Superfinanziers das Leben von Nvidia kontrollieren, trauen sie sich nicht mehr, einfach den Spieß umzudrehen.

Die Giganten, die Nvidia durch die Rücknahme von Bestellungen zu Preissenkungen gezwungen haben, sind plötzlich zu Nvidia-Anhängern geworden. Jedes Mal, wenn Boss Huang eine neue GPU herausbringt, stehen sie Schlange, um sie zu einem höheren Preis zu kaufen, egal wie viel es kostet.

Wie hat sich Yingvida gewehrt, von der Gnade anderer bis hin zur Ablehnung von Kunden?

In diesem Artikel werden die drei Kampfrunden mit Großkunden untersucht und festgestellt, dass die Geschichte von Nvidias Vermögen eine komprimierte Geschichte der technologischen und industriellen Entwicklung ist. Von der vorübergehenden Führung zur absoluten Führung, von der ersetzbaren zur unersetzlichen Führung erlangte es Schritt für Schritt sein Mitspracherecht zurück, bis es zum „Silicon Valley Dragon“ der neuen Ära wurde.

1. Als „Taiwan-Balsam“ für PC-Spiele fungieren und auf den Schultern der Kunden stehen

2002 muss für Huang Renxun ein unvergessliches Jahr werden.

In diesem Jahr brach der Aktienkurs von Nvidia um 90 % ein, und auch sein persönliches Vermögen schrumpfte um das Zehnfache und fiel direkt vom „Milliardär“ zurück in die Reihe der „Multimillionäre“.

Sein Schmerz kommt vom großen Finanzier Microsoft: Bei dem Xbox-Spielekonsolenprojekt, mit dem die beiden Unternehmen kooperierten, kam es zu einem Preiskampf. Microsoft forderte Nvidia auf, den GPU-Preis zu senken, doch damals stellte Nvidia auch Kerne nach der Kostenlinie her. Da es sich natürlich weigerte, zu verhandeln, brach Microsoft wütend die Zusammenarbeit zwischen den beiden Parteien ab.

Wissen Sie, dieser Microsoft-Vertrag macht fast 70 % des Jahresumsatzes von Nvidia aus. Nach dem Scheitern der Zusammenarbeit schrumpften die Einnahmen von Nvidia rapide und sein Marktwert stürzte ab.


Nachdem er das Gefühl verspürt hatte, von Kunden gemobbt zu werden, musste Huang Renxun Kompromisse eingehen und stimmte zu, „die zukünftigen Kosten für Xbox zu senken“.

Sechs Jahre später entschied sich Boss Huang jedoch angesichts des „Grafikkartenskandals“, bei dem Apple, Dell und HP mit der kollektiven Rücknahme von Bestellungen für Chips der GeForce 6000-9000-Serie unzufrieden waren und der Aktienkurs um 95 % einbrach den Vater des Kunden bis zum Schluss beleidigen.

Er deckte sanft das Problem auf, dass Grafikkarten zu Überhitzung und Einbrennen des Computers führen. Später bat Apple um eine maßgeschneiderte Zusammenarbeit, die jedoch sofort abgelehnt wurde.

Die beiden völlig unterschiedlichen Haltungen sind maßgeblich auf die Verschiebung des Rederechts zurückzuführen.

Im Konsolenzeitalter zu Beginn dieses Jahrhunderts kontrollierten Spielekonsolenhersteller den „Verkehrszugang“, und der Vertrieb und Betrieb von Spielen wurde von Giganten wie Sony und Nintendo übernommen. Chiplieferanten konnten normalerweise nur „zu ihnen aufschauen“. .


Obwohl Nvidia Pionierarbeit beim GPU-Konzept leistete und den Bereich der Grafikkarten dominierte – ausgehend vom bahnbrechenden Produkt Geforce256 – entwickelte sich die Grafikkartentechnologie weiterhin rasant weiter und war der Schlüssel zur Umwandlung von 2D in 3D in der Spielebranche nicht entgehen, von Leben und Tod bestimmt zu werden.

Nach der Trennung von Microsoft verpasste Nvidia direkt die neue Spezifikation DirectX9 von Microsoft, was dazu führte, dass die neu eingeführte GeForce FX nicht mit den Microsoft-Standards kompatibel war. Darüber hinaus war das Produkt selbst unausgereift und die Verkaufszahlen waren düster.

ATI, das Unterstützung von Microsoft erhielt, brachte die Radeon 9700 auf den Markt, die Nvidias GeForce FX schlug, und stieg schnell auf dem GPU-Markt auf. Im dritten Quartal 2004 betrug der Marktanteil von ATI auf dem unabhängigen Grafikkartenmarkt 59 %, während der Marktanteil von Nvidia nur 37 % betrug.

Allerdings wurde im Laufe der Zeit auf dem PC-Spielemarkt das Monopol des „Verkehrseinstiegs“ der Spielekonsolenhersteller gebrochen.

In diesem Bereich liegt der Kern der Branche im Spiel selbst, und sie neigt eher dazu, dass „Spielehersteller nach Belieben laufen und Hardware-Unternehmen ihnen verzweifelt nachjagen“. Es gibt eine Arbeitsteilung in Forschung und Entwicklung, Vertrieb und Hardware und Software in der Branche.


Dies bedeutet, dass sich die potenziellen Kunden der Chiphersteller im Vergleich zu Sony, Nintendo und Microsoft, die im Zeitalter der Spielekonsolen nur eine Handvoll waren, plötzlich auf jeden Winkel der Industriekette ausgeweitet haben.

Wie in der folgenden Abbildung dargestellt, stieg der Umsatz von Nvidia von 2004 bis 2006 weiter an, während der Anteil der fünf größten Kunden am Umsatz weiter zurückging.


Gleichzeitig haben diese durch die Grafikkartentechnologie vorangetriebene Welle des „echten 3D“ und die durch die Popularität von überlagerten Netzwerken und Breitband ausgelöste PC-Verbindungswelle auch höhere Anforderungen an die Chipfähigkeiten in der vor- und nachgelagerten Industriekette gestellt.


Auf der Verbraucherseite als Beispiel: Diese Spiele mit cooler Grafik werden aufgrund ihrer komplexen 3D-Modellierung auch als Computerkiller bezeichnet und Spieler können nicht aufhören, ihre Computer zu aktualisieren. Und ihr Streben nach Geräteleistung hat PC-Hersteller dazu gezwungen, Chips zu wählen, die für ihre Leistung bekannt sind.

„Crysis“ zum Beispiel, das 2007 das ganze Land und das Ausland eroberte, verfügt über lebensechte Grafiken, die Menschen süchtig machen, stellt jedoch die Leistung der Grafikkarte extrem auf die Probe. Ein Spieler erinnerte sich: „Während meiner College-Sommerferien habe ich einen ganzen Tag lang gegen den Endgegner gekämpft. Nach jedem Abschuss einer Atombombe musste der Computer angehalten werden, um sich abzukühlen.“


Dies hat dazu geführt, dass die NVIDIA Geforce9800GT-Grafikkarte, die „Crysis“ flüssig ausführen kann, mit weltweit mehr als 5 Millionen verkauften Einheiten sehr beliebt ist.

Um es ganz klar auszudrücken: Im Vergleich zur Konsolenindustrie im Upstream von PC-Spielen kann das Produkt für sich selbst sprechen, solange Leistung, Ertrag und Preis gut ausbalanciert sind, und es besteht keine Notwendigkeit, ein „Low-“ zu sein. Schlüssel" Partei B.

Es ist ersichtlich, dass Nvidias GPU-Formel, „die Leistung zu verdoppeln und die Preise mit jeder Update-Runde weiter zu senken“, seit 2004 auf dem PC-Gaming-Markt populär geworden ist.


Allerdings ist Nvidia nicht der Einzige, der dieses Stück Kuchen im Auge hat, auch die Chip-Giganten sind nicht weit dahinter.

Etablierte CPU-Anbieter wie Intel und AMD wechselten schnell zu GPUs, und auch ihr alter Feind ATI rückte näher. AMD kündigte 2005 sogar eine Fusion mit ATI an, in der Hoffnung, die Branche durch eine leistungsstarke Kombination aus CPUs und GPUs zu dominieren.

Ein erbitterter Kampf stand bereits vor der Tür: ATI kaufte eine große Anzahl veralteter GPU-Technologiepatente, um sie zu einem besseren Preis zu verkaufen. Dies führte nicht nur dazu, dass AMD jahrelang verschuldet war, sondern verlangsamte auch das Tempo GPU-Integration: In der Chip-Industrie, die sich weiter entwickelt, hat AMD in der Masse verloren.

Nvidia ist ziemlich stolz auf den Rückstand seines Gegners, wie Huang Renxun zeigte: „Es ist ein Geschenk der Extraklasse. Wir sind das einzige unabhängige Grafikchip-Unternehmen der Welt geworden.“

Und NVIDIA, ein dominierender Akteur mit der vorhandenen Technologie, hat seitdem die Fähigkeit erlangt, mit den Kunden zu konkurrieren.

Beispielsweise haben Dell und HP, die während des oben erwähnten „Grafikkartenskandals“ ihre Bestellungen zurückgezogen hatten, nach der Einführung neuer Produkte durch NVIDIA Bestellungen aufgegeben, nachdem Apple nach dem Wechsel zu AMD aufgrund schlechter Ergebnisse in den sauren Apfel beißen musste Ergebnisse.

Doch bevor Boss Huang lange lachen konnte, kam still und leise eine neue Krise.

2. Konzentrieren Sie sich auf die GPU-Universalität, was es für große Kunden schwierig macht, darauf zu verzichten

Eine der berühmten Taten des Superverkäufers Huang Renxun besteht darin, dass er auf der Xiaomi-Startkonferenz 2013 behauptete, ein Reisfan zu sein, und rief: „Bitte geben Sie mir die Chance, NVIDIA vorzustellen!“

Damals beklagte das melonenfressende Publikum, dass Boss Huang flexibel sei und glaubte, dass Nvidia auf dem Markt für mobile Chips konkurrieren würde.

Unerwartet gab Huang Renxun im nächsten Jahr die Gelegenheit auf, die er sich ausgeleckt hatte, und kündigte an, dass er sich schrittweise aus dem Markt für Smartphone- und Tablet-Chips zurückziehen werde.

Die damalige Erklärung von Huang Renxun lautete: Der harte Preiswettbewerb unter den Mobiltelefonherstellern zwingt vorgelagerte Unternehmen dazu, die Preise kontinuierlich zu senken, aber der Preis ist nicht die Stärke von Nvidia und kann sich daher nur zurückziehen.

Aber heute wissen wir, dass der Preiskampf nur ein oberflächliches Phänomen ist. Der tiefere Grund liegt darin, dass die Nachfrage nach mobilen Chips nicht mit der ultimativen Leistung übereinstimmt, die Nvidia anstrebt.

Der Erfolg des PC-Marktes hat Huang Renxun besser als jeder andere klar gemacht, dass Unternehmen mit führender (oder sogar einzigartiger) Technologie im Chipbereich oft ein größeres Stück vom Kuchen abbekommen und einen größeren Vorsprung haben können.

Deshalb hat Nvidia den Weg „Technologie gewinnt“ für mobile Chips umgesetzt: Die Tegra-Serie hat die Rechenleistung verrückt gestapelt. Von Tegra 2 bis Tegra 3 ist die Anzahl der GPU-Kerne von 8 auf 12 gestiegen, und Tegra 4 ist rasant angestiegen 72. Die gesamte Serie Sie alle gelten als Scoring-Tools.

Auf Smartphones und Tablets montierte mobile Chips müssen jedoch auf begrenztem Raum und mit begrenzter Leistung arbeiten. NVIDIA-Chips, die mehr Wert auf eine ausgewogene Konfiguration legen und nach Leistung streben, haben bald Probleme mit einem außer Kontrolle geratenen Energieverbrauch und starker Erwärmung.

Noch wichtiger ist, dass die Kommunikationssignaltechnologie fest von Qualcomm kontrolliert wird. Wenn Mobiltelefonhersteller mit Nvidia zusammenarbeiten, müssen sie viel Geld ausgeben, um ihre eigenen Basisbänder bereitzustellen, und haben daher einen Rückzieher gemacht.

Unter diesen Umständen muss Nvidia Kompromisse bei der Leistung eingehen, wenn es weiterhin Mobilität anstrebt, und das entspricht nicht dem Stil des „Technikfreaks“ Huang Renxun. Er beschloss, „seine Energie wieder auf Hochleistung, visuelles Computing oder Gaming zu konzentrieren“. „auf dem Gerät“.

Aber der Markt kaufte es nicht. Nvidias Hauptmarkt, PC-Spiele, hatte seine Phase der beschleunigten Verbreitung beendet, und das gesamte Internet befand sich in einer heißen Phase des mobilen Wandels. Das Scheitern der Mobilität brachte nicht nur Nvidias Geschäft in eine Krise Der Einbruch bedeutete aber auch, dass man sich der Verfolgung der Technologie entledigen wollte, einem boomenden Markt.


Nvidia hat mehr als einmal so gehandelt, und das andere Mal lässt sich auf das Jahr 2006 zurückführen.

In den Augen der damaligen Welt waren GPUs nur Spielgeräte. Huang Renxun sah versehentlich, wie einige Leute an der Wall Street NVIDIA-GPUs für den Hochfrequenzhandel und die Finanzquantifizierung verwendeten, aber sie konnten nur viele Niederfrequenz-Handelsgeräte schreiben. Es ist nicht möglich, es mit Maschinencode zu implementieren, und sie können es nicht wie CPUs in Sprachen wie C++ programmieren.

Dadurch wurde Huang Renxun klar, dass der Markt eine gewisse Nachfrage nach allgemeinen Computerszenarien hatte. Als er zurückkam, forderte er mehr Softwareentwicklung (d. h. die CUDA-Plattform), um die GPU für verschiedene Aufgaben und nicht nur für das Zeichnen von Bildern geeignet zu machen das Spielfeld.

Nach dem Start des Projekts werden die jährlichen Forschungs- und Entwicklungskosten voraussichtlich 500 Millionen US-Dollar erreichen. Damals betrug der Jahresumsatz von Nvidia nur 3 Milliarden US-Dollar.

Darüber hinaus gab es zu dieser Zeit keine offensichtliche Marktnachfrage nach der enormen allgemeinen Rechenleistung, die das parallele Rechnen mit sich brachte. Es wurde hauptsächlich in unpopulären Bereichen wie Laboratorien für fortgeschrittene Physik und quantitativem Handel eingesetzt Einstellig betrachtete die Wall Street CUDA einst als Die technische Bewertung ist Null.

Mit anderen Worten: Boss Huang setzt 1/6 des Unternehmensumsatzes auf eine Softwareplattform, die wenig mit dem Kerngeschäft zu tun hat und deren Aussichten endlos sind.

Es kostet nicht nur Geld, sondern um sich an die CUDA-Plattform anzupassen, müssen die Chips von Nvidia mehr Logikschaltungen hinzufügen, was die Chipfläche vergrößert, die Anforderungen an die Wärmeableitung erhöht und die Ausfallrate erheblich erhöht.

Die oben erwähnten Vorfälle mit Auftragsstornierungen durch HP, Dell, Apple usw. waren genau darauf zurückzuführen, dass Nvidia-Chips stark überhitzt waren, was zu Abstürzen und Fehlfunktionen zahlreicher Notebook-Computer führte.

Aber Huang Renxun glaubte fest daran, dass „diese Art der Softwareherstellung alles verändern kann.“ Obwohl er eine riesige Summe von 200 Millionen ausgab, um Kunden zu entschädigen, investierte er dennoch fast paranoid in CUDA.

Es stellte sich heraus, dass er Recht hatte.

Beim ImageNet-Wettbewerb Ende 2012 steigerte das auf NVIDIA-Chipberechnungen basierende Convolutional Neural Network AlexNet die Erkennungsgenauigkeit auf einen Schlag auf 84 % und startete damit die KI-Revolution in den nächsten zehn Jahren.

Dies macht die NVIDIA GPU+CUDA-Kombination auch zu einem Blockbuster im Bereich Deep Learning. Google, das einst spottete, dass „GPUs nur zum Spielen da sind“, wurde sofort ein Unterstützer von Nvidia, und Giganten wie Microsoft und Facebook bestellten ebenfalls eine große Anzahl von GPUs für das Training künstlicher Intelligenz.

Und das ist erst der Anfang. Mit den kontinuierlichen Durchbrüchen im Bereich Deep Learning „schwenken“ Giganten in mehreren Szenarien nach und nach auf NVIDIA um.

Als beispielsweise im Jahr 2015 die Fehlerquote des Deep Learning im Bereich der Bilderkennung geringer war als die des Menschen, explodierte der Markt für autonomes Fahren. Auf der Autoseite waren Heizung und Energieverbrauch kein Problem mehr. die bei Mobiltelefonherstellern unbeliebt waren, wurden von Automobilherstellern bevorzugt.


Im Jahr 2016 besiegte AlphaGo Lee Sedol im Namen der KI und belebte damit den gesamten B-Side-Markt.

Es ist ersichtlich, dass große Hersteller damit begonnen haben, eine Reihe von KI-Dienstleistungsprodukten anzubieten, die auf Deep Learning basieren, z. B. Bilderkennung, Authentifizierung und Abruf für B-Side-Kunden in verschiedenen Branchen.


Neben der steigenden Nachfrage nach GPUs in Branchen wie dem Internet und dem autonomen Fahren gehören auch Unternehmen zu den NVIDIA-Kunden, die KI-Technologie in den Bereichen Biomedizin und quantitativer Handel einsetzen können.

Daten zeigen, dass der Marktanteil von Nvidia im Bereich Deep Learning im Jahr 2016 bis zu 97 % beträgt.

Zu diesem Zeitpunkt hat NVIDIA, das von der GPU- und CUDA-Leistung besessen ist, auf die Erkenntnis gewartet, dass „Rechenleistung gleich Leistung“ ist: Großkunden kommen in ihrem Geschäft nicht an NVIDIA vorbei und haben die Qualifikation verloren, die Tabelle zu ändern .

Dieser Stimmenzuwachs verschaffte Nvidia frischen Wind, verbarg aber auch versteckte Gefahren.

3. Großkunden, die selbst entwickelte Chips entwickeln, werden von Nvidia unterdrückt

Im Jahr 2017 löste Nvidias „One-Note-Verbot“ öffentliche Empörung in der globalen Technologieszene aus: Kunden dürfen GeForce-Produkte nicht mehr verwenden, um Deep Learning in Rechenzentren durchzuführen.

Zu dieser Zeit bewarb NVIDIA sein neues High-End-Produkt Tesla-Serie. Dieser Server hatte die gleiche Architektur wie die GeForce-Serie, war jedoch sehr unterschiedlich. Die Top-Version war fast zehnmal teurer. Die Verkündung des Verbots bedeutet, dass Kunden GeForce nicht mehr als Ersatz für Tesla nutzen können und Start-ups mit schwachen finanziellen Mitteln möglicherweise sogar ihre Überlebenschancen verlieren.

Inmitten der Proteste wurden die Aktionen des „Drachen“ schließlich eingestellt, doch die Abwehrmaßnahmen der Technologieunternehmen gegen Nvidia wurden immer intensiver.

Rückblickend haben Internetgiganten wie Google, Meta und Microsoft sowie Elektrofahrzeughersteller wie Tesla in den letzten Jahren sukzessive damit begonnen, eigene Chips zu entwickeln, um ihre Abhängigkeit von Nvidia-GPUs zu verringern.


Abgesehen davon, dass man die „NVIDIA-Steuer“ hasst, sind selbst entwickelte Chips auch günstiger als der Kauf bei NVIDIA.

Nehmen wir als Beispiel die Automobilindustrie, die die meiste Rechenleistung auf der Autoseite benötigt. NVIDIA-Chips sind jedoch nicht nur unbefriedigende Rechengeschwindigkeiten, sie nehmen auch viel in Anspruch viel Platz.

Selbstentwickelte Chips sind speziell für das fahrerlose Fahren konzipiert, wie beispielsweise der FSD-Chip von Tesla. Im Vergleich zum handtellergroßen NVIDIA DRIVE PX 2 ist die Fläche stark reduziert, auch der Energieverbrauch sinkt auf ein Drittel.

Der FSD-Chip gibt auch der für Deep Learning und Vorhersage verantwortlichen NPU Vorrang, ist beim maschinellen KI-Lernen effizienter und verfügt über eine um das Fünffache erhöhte Rechenleistung.


Das Gleiche gilt im Pan-KI-Bereich. Chips werden von der Architektur über das Betriebssystem der oberen Ebene bis hin zum Geschäftscode angepasst und transformiert, um die ultimative Leistung zu erzielen. Dies gilt für die TPU-Chips von Google und die Graviton-Chips.

Unter anderem ist die Google TPU im Bereich der Inferenzberechnung 15 bis 30 Mal schneller als die NVIDIA GPU, und das Verhältnis von Leistung zu Stromverbrauch ist etwa 30 bis 80 Mal höher.


Mit anderen Worten: Selbst entwickelte Chips können nicht nur individuell angepasst werden, sondern übertreffen auch die Allzweckchips von Nvidia in Bezug auf Leistung, Größe und Stromverbrauch.

Obwohl die aktuellen Chips als „selbst entwickelt“ bezeichnet werden, erfordern sie keine umfassende Forschung und Entwicklung. Nehmen wir Tesla als Beispiel, mit Ausnahme der selbst entwickelten NPU, der restlichen CPU, GPU und Schnittstellen. usw. Alle kaufen Standard-IP. In nur 18 Monaten ist die Entwicklung abgeschlossen.

Nachdem große Kunden eine hektische Selbstforschung gestartet hatten, war NVIDIA daher im Zweifel gefangen, „untergraben“ zu werden. Doch obwohl große Kunden den Mut haben, Kerne zu bauen, ist es nicht einfach, Nvidia zu ersetzen.

Wie wir alle wissen, sind die Fixkosten für die Chipherstellung wie Forschung und Entwicklung, Design, Standortausrüstung usw. erstaunlich hoch. Die einmaligen Tape-Out-Kosten eines 7-Nanometers Chip ist etwa 200 Millionen Yuan.


Auf dieser Grundlage konzentrierte sich diese Branche schon immer auf die „Kostenskalierung“: Für die F&E-Seite gilt: Je mehr Szenarien der Chip verwendet werden kann, desto stärker können die enormen F&E-Kosten für den Hersteller verwässert werden; Je höher die Anzahl der Bestellungen, desto besser kann die Auslastung der Produktionskapazitäten mobilisiert und der Versandgewinn auf einem bestimmten Niveau gehalten werden.

Es ist ersichtlich, dass mit der gemeinsamen Architektur von NVIDIA die Forschungs- und Entwicklungsausgaben für ein einzelnes Szenario verwässert werden können. Beispielsweise könnten die Kosten für die im Automobilchip Thor verwendete Hopper-Architektur vom H100 mit derselben Architektur geteilt worden sein.

Großkunden, deren selbstentwickelte Chips meist in Sonderszenarien zum Einsatz kommen, steht dies offensichtlich nicht zur Verfügung. Daher können die enormen Forschungs- und Entwicklungskosten sie unerschwinglich machen.

Das Gleiche gilt für die Fertigung. Eine Organisation hat einmal eine Rechnung berechnet: Angenommen, Autofirmen produzieren 1,2 Millionen Fahrzeuge pro Jahr und verwenden 1,2 Millionen High-Computing-Chips, also 100.000 pro Monat. Wenn jeder 12-Zoll-Wafer 500 Chips enthält, sind es nur 100.000 pro Monat. Nachfrage nach 200 Waffeln.

Bei einer so geringen Nachfrage kann TSMC nur als kleinster Kunde angesehen werden, und das Gleiche gilt für Verpackungs- und Prüfanlagen. Wenn das Angebot an Fab-, Verpackungs- und Testproduktionskapazitäten die Nachfrage übersteigt, werden sie der Sicherstellung der Versorgung großer Kunden Vorrang einräumen und die Wartezeit für Bestellungen verlängern.

In Verbindung mit der Kettenreaktion von Tests und anderen Verbindungen kann der tatsächliche Anwendungsimplementierungszyklus des Chips länger werden. Beispielsweise schloss der FSD-Chip von Tesla seine erste Testproduktion Ende 2017 ab, mit dem Einbau in Autos wurde jedoch erst zwei Jahre später begonnen, und Aktualisierungen und Iterationen erfolgen noch langsamer. Im Vergleich dazu kann Nvidia seine Automobilchips grundsätzlich alle 18 Monate aktualisieren.


Dies hat viele Unternehmen dazu gezwungen, sich wieder NVIDIA zuzuwenden, insbesondere nach dem Boom großer Modelle und generativer KI. Selbst große Hersteller, die sich immer noch der Selbstforschung verschrieben haben, trauen sich nicht, sie zu geben Kauf einer fortschrittlichen NVIDIA-GPU.


Nvidias Rechenleistungschips sind plötzlich zu harter Währung geworden. Gerüchten zufolge haben der Oracle-Gründer und Musk Jen-Hsun Huang einst um eine Stunde in einem japanischen Lebensmittelgeschäft angebettelt, nur um Lieferungen von GPU-Chips zu bekommen.

Berichten zufolge kann NVIDIA jedes Mal, wenn es einen H100 verkauft, einen reißenden Gewinn von 1.000 % erzielen. 50 % der Gewinne aus KI-bezogenen Branchen fließen in die Taschen von Nvidia.

Angesichts der verschärften „NVIDIA-Steuer“ beißen Großkunden die Zähne zusammen, sind aber hilflos – die aktuelle Chip-Konkurrenz konzentriert sich sowohl auf Software als auch auf Hardware, und NVIDIA hält nicht nur den Chip, sondern auch den Softwaregraben CUDA.

Seit mehr als zehn Jahren ist CUDA als Funktionsbibliothek und Codebasis für Entwickler geöffnet und hat Millionen von Entwicklern angezogen. Sie haben mehr Tools entwickelt, wodurch das CUDA-Ökosystem ausgereifter wurde und fast zu einer „Infrastruktur“ wurde ". Die Präsenz.

Vergleicht man die GPU mit einem Kraftwerk, dann sind Entwickler wie Leute, die Elektrogeräte bauen, und CUDA ist wie ein „Stromnetzsystem“. Die Spannungsspezifikationen von Elektrogeräten sind an das Stromnetz angepasst.

Es dürfte schwierig sein, den Status von CUDA zu ersetzen. Um das Monopol von CUDA auf das Co-Design von Software-Chips zu brechen, haben NVIDIAs Großkunden im vergangenen Jahr die „Anti-CUDA Alliance“ ins Leben gerufen, um ein CUDA-kompatibles Kompilierungstool nachzubilden.

Als die Lösungen von Drittanbietern jedoch ein Niveau nahe dem CUDA erreichten, hatte Nvidia bereits die nächste GPU-Generation herausgebracht. Software und Hardware hielten miteinander Schritt und sorgten dafür, dass die Herausforderer aufholten.

Darüber hinaus hat Nvidia, das die Gefahr wittert, bereits damit begonnen, eine Mauer zu errichten: Zuerst hieß es: „Kaufe ein Server-Rack, hol dir zuerst GB200“, bündelte und verkaufte teure, maßgeschneiderte Racks, was die Migrationskosten für Kunden in die Höhe trieb, und verschärfte dann die Dekompilierungs-Blockaden den Weg für die Kompatibilität anderer Tools mit CUDA.

Dadurch werden jene Großkunden, die ihre eigenen Chips entwickeln, irgendwann zu Fleisch auf dem Schneidebrett von Nvidia.

Zusammenfassung

„Zuerst gibt es Renxun, dann wird es den Himmel geben, und die Grafikkarte wird die Götter quälen.“ Nvidia-„Gläubige“ in der heimischen Grafikkartenleiste kommentierten einst Huang Renxun im Stil von „Historical Records“.

Mit dem Segen vieler Medien hat Huang Renxun fest davon überzeugt, dass die Rechenleistung die Welt wirklich verändert hat. Sein Glaube wurde allgemein anerkannt und seine Macht kann sogar den Markt dominieren.

Aber wer Geschichte macht, kann seine eigenen Koordinaten im historischen Prozess nie vorhersehen. Daraus ergibt sich, dass für Huang Renxun jeder Tag ein Zustand der „Bereitschaft zum Handeln“ ist.