Nachricht

Der Riese aus dem Silicon Valley stellt einen Kern her, das „Ticket“ liegt bei 2 Milliarden US-Dollar

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

„Chip Matters“ ist der Forschungsplan für die Halbleiterindustrie von Tencent Technology. Diese Ausgabe konzentriert sich auf die Logik und Herausforderungen von Technologieunternehmen, die selbst entwickelte KI-Chips entwickeln.

Autor Xinchao IC A Niu

Herausgeber Su Yang

„Unsere NVIDIA-Chipreserven können nicht mehr mithalten“, sagte ein CEO eines großen KI-Modellunternehmens offenherzig.

Betroffen von der weiteren Verschärfung der Exportkontrollen war es schwierig, Chinas Sondereditionschips wie den A800 und den H800 zu kaufen. Stattdessen wurden sie durch die konforme Version des H20 ersetzt. Die Leistung des letzteren ist erheblich geschrumpft Welt nennt es auch eine kastrierte Version. Dennoch könnte H20 bei der Aktualisierung der Exportkontrollbestimmungen des US-Handelsministeriums im Oktober dieses Jahres weiterhin Exportkontrollen unterliegen.

Die Financial Times zitierte zwei anonyme Nvidia-nahe Quellen mit den Worten, dass mehrere chinesische Unternehmen Chips im Gesamtwert von 5 Milliarden US-Dollar bei Nvidia bestellt hätten. Gleichzeitig sind einige inländische Chips in das Blickfeld großer Technologiehersteller gerückt, aber aufgrund von Prozessen, Verbindungen und anderen Gründen gibt es immer noch Leistungslücken und Lieferherausforderungen.

Vor diesem Hintergrund haben viele große Unternehmen mit der Selbstforschung begonnen und sukzessive aktuelle TSMC-Chips entwickelt, die mehrere Prozessknoten wie 5 nm und 7 nm abdecken, um die Versorgungssicherheit ihrer eigenen KI-Chips zu gewährleisten.

Exportkontrollen sind wie ein zweischneidiges Schwert, das die Rechenleistung blockiert und das Wachstum von NVIDIA einschränkt. Insbesondere im Zusammenhang mit der Selbstbefragung der Kunden zeigen NVIDIAs Umsätze auf dem chinesischen Festland Schwankungen. Im Geschäftsjahr 2022 trugen chinesische Kunden 25 % zum Marktumsatz von Nvidia bei, doch bis zum Geschäftsjahr 2024 ist dieser Anteil auf einen einstelligen Bereich gesunken.

Für Nvidia schrumpft der Kuchen auf dem chinesischen Festland, und auch das Silicon Valley verändert sich. Große Kunden wie Google, Apple, Meta, Amazon und Tesla versuchen alle, beide Wege zu gehen, indem sie die Chips von Nvidia verwenden und gleichzeitig ihre eigenen Recherchen durchführen.

Welche Logik steckt hinter den selbst entwickelten Chips großer chinesischer und amerikanischer Hersteller? Können die Technologieunternehmen, die ins Rote Meer strömen, erfolgreich mit selbst entwickelten Chips landen?

01 Hartwährung fühlt sich nur dann sicher an, wenn man sie in der Hand hält

In der aktuellen Begeisterung für große Modelle und generative KI sind Rechenleistungschips die harte Währung in den Händen von Technologieunternehmen. CoreChao IC hat diesen Wahnsinn und die Spannung des „Angriffs auf Rechenleistung“ im Artikel „The Sky-high Price H100 Flows“ nachgezeichnet zum Schwarzmarkt“.

Die Karten selbst in der Hand zu haben, ist der Hauptgrund, warum große Hersteller ihre eigenen Chips entwickeln.

Laut Chen Wei, Vorsitzender von Qianxin Technology, haben große Hersteller drei Trümpfe: garantierte Versorgung, Kostensenkung und Gebotsabgabe. Im Allgemeinen handelt es sich um eine Art Chipautonomie.

Für viele große chinesische Hersteller, insbesondere Internet- und Künstliche-Intelligenz-Majors, besteht vor dem Hintergrund fortschrittlicher Chip-Exportkontrollen jederzeit das Risiko, dass es zu Lieferkürzungen bei der Rechenleistung kommt. Selbstforschung ist der Garant für die Sicherheit der Rechenleistung. Die von den einzelnen Unternehmen entwickelten Chips sind jedoch hauptsächlich für den internen Gebrauch bestimmt, und die Spezifikationen sind auf die eigenen Produkte zugeschnitten und keine Allzweckprodukte.

Für die Giganten, die „Geld verbrennen“, um Rechenleistung anzuhäufen, ist Selbstforschung eine Möglichkeit, die Kosten zu senken. „Wenn das Volumen groß genug und die Nachfrage groß genug ist, sollten Sie über Selbstforschung nachdenken, sonst können die Kosten möglicherweise nicht wirklich gesenkt werden“, sagte Wu Zihao, ein ehemaliger TSMC-Fabrikbauexperte.

Im Jahr 2021 brachte Musk den Dojo-Supercomputer auf den Markt, der mit dem selbst entwickelten KI-Chip D1 gebaut wurde, um Teslas zu trainierenAutopilot System. Laut dem neuesten Forschungsbericht von Morgan Stanley spart dieses System im Vergleich zum A100 von Nvidia insgesamt 6,5 Milliarden US-Dollar.

Mit der steigenden KI-Nachfrage übersteigt die Abhängigkeit von Cloud Factory die von CPUs bei weitem. Die Nachfrage nach NVIDIA-Chips ist auch ein Anreiz für Cloud Factory, NVIDIA-Bestellungen zu erhalten.

Eine Amazon-nahe Person sagte gegenüber Xinchao IC, dass NVIDIA-Karten nicht billig seien, wenn die großen DSA-Hersteller über selbst entwickelte Spezialchips verfügten, könnten sie nicht nur die durchschnittlichen Kosten für Chips und Patente vollständig senken, sondern auch um besser mit NVIDIA konkurrieren zu können.

Öffentliche Informationen zeigen, dass Amazon nicht nur seine eigenen Computerserver, Speicherserver und Router entwirft, sondern auch seinen eigenen Serverchip Graviton entwickelt.

AWS bringt den universellen Graviton4-Prozessor auf den Markt

Laut The Information senkt Amazon weiterhin die Preise, indem es Nvidia durch Graviton ersetzt. Kunden, die Graviton-Server direkt mieten, sparen 10 bis 40 % an Rechenkosten. Wer Amazon, den weltgrößten Cloud-Factory-Kunden, halten will, muss aus Sicht von Nvidia am Pokertisch sitzen und einen besseren Preis aushandeln.

„Diese Art von Gewinnzugeständnissen spiegelt sich manchmal nicht vollständig im Rabatt wider, kann aber in der Zuteilung widergespiegelt werden.“

Wenn Nvidia als weltweit führender Spot-Hersteller direkt einen sehr intuitiven Rabatt auf den Stückpreis gewährt, wird dies laut den oben genannten Insidern große negative Auswirkungen auf das Produktpreissystem haben und dem Produktpreisschutz nicht förderlich sein Sie können Verbindungsgeräte aufrüsten, SSD-Speicher aufrüsten, weitere Rack-Konfigurationen hinzufügen usw., um Großkunden versteckte Rabatte zu gewähren.

Es gibt auch eine gebräuchlichere Vorzugsmethode – Kapazitätsausschüttung und erstmalige Bereitstellung von Rechten.

Mit dem First-Mover-Vorteil kann Amazon den Preis der Komplettmaschine kurzfristig höher ansetzen und (Rabatt-)Geld aus der Prämie der Komplettmaschine und der Verbreitung unterstützender Software-Toolketten „einsparen“.

Neben der Sicherstellung der Versorgung, der Reduzierung von Kosten und der Ausschreibung wollen einige große Hersteller ihre eigene einzigartige Wettbewerbsfähigkeit durch die Entwicklung eigener Chips sicherstellen.

Chen Jing, Vizepräsident der Fengyun Society, erwähnte, dass die von NVIDIA verkauften Chips für allgemeine Computer geeignet sind und über alle Funktionen verfügen, jedoch auch relativ teuer sind. Einige Kunden benötigen jedoch nur bestimmte Funktionen, um bestimmte ihrer eigenen Vorteile zu verbessern , werden sie ein Selbststudium in Betracht ziehen.

„Ich muss nur große Modellinferenzen durchführen und benötige keine Trainingsfunktionen. In diesem Fall kann ich einen dedizierten Chip mit einfachen Funktionen, aber höherer Geschwindigkeit und günstigerem Preis entwerfen“, sagte Chen Jing. „Große Unternehmen wie Google und Microsoft haben ihre eigenen Software- und Hardware-Systemspezifikationen. Wie man Lärm kontrolliert und welcher Energieverbrauch erreicht werden sollte. NVIDIA kann die Standards möglicherweise nicht erfüllen. Es ist bequemer, selbst zu entwerfen.“ "

Unter den Giganten des Silicon Valley ist Google sehr auf die Differenzierung seiner eigenen Architektur, Kosten und Chiptechnologie bedacht. Seit 2016 entwickelt das Unternehmen eine eigene KI-Tensor-Verarbeitungseinheit (TPU), um eine bessere Kosteneffizienz bei großen und mittleren Schulungen zu erreichen und Schlussfolgerung und Leistung, um ihre sicherzustellenCloud ComputingProdukte haben eine bessere Einzigartigkeit und Wiedererkennung.

Google bringt TPU „Trillium“ der sechsten Generation auf den Markt

Laut von Google veröffentlichten Daten zur TPU der 4. Generation ist TPU v4 im Vergleich zu Systemen gleicher Größe 1,7-mal effizienter als NVIDIA A100 und 1,9-mal energiesparender.

Zusätzlich zu den oben genannten Punkten gibt es aus ökologischer Sicht einen tieferen Grund – das CUDA-Monopol zu brechen. Als von NVIDIA entwickelte Programmiersprache ist CUDA der Hauptgrund dafür, dass die GPU-Preise „in die Höhe geschossen“ sind und die Kunden dies akzeptieren müssen.

Wenn die Cloud-Fabrik keine Selbstforschung betreibt, werden mehr als 95 % der Prozessoren im Rechenzentrum immer noch NVIDIA-GPUs verwenden, selbst wenn sie einen guten Bestellpreis erzielen kann, und der gesamte Cloud-KI-Bedarf wird weiterhin von CUDA abhängen Ökosystem. Letztlich liegt Nvidias Schicksal in Nvidias Händen.

Da Cloud Factory Rechenzentren mit selbst entwickelten Chips ausstattet und viele zugrunde liegende Middleware- und Binärübersetzungsfunktionen entwickelt, um Kunden bei der Migration in sein eigenes Ökosystem zu unterstützen, wird es einen höheren Grad an gleichwertiger Kompatibilität mit CUDA-Programmen aufweisen und seine exklusive Abhängigkeit wird allmählich abnehmen.

„Das machen alle Cloud-Fabriken. Auch wenn der Prozessor weniger als 4 % des gesamten Rechenzentrums ausmacht, müssen sie dennoch darauf bestehen, dies zu tun“, sagte die mit der Angelegenheit vertraute Person.

02 Wenn es Menschen und Geld gibt, machen wir Schluss

„Es gibt Menschen, Geld, Dinge, und gleichzeitig hat es noch Zukunftspotenzial, also kann es beendet werden.“

 

Yu Hao, Vizepräsident von Legend Holdings, glaubt, dass die Logik großer Hersteller, die sich mit Chips befassen, relativ reibungslos verläuft. Ihre Kunden sind dort, was ein klarer Vorteil ist.

„Die ‚Leute‘ müssen ‚talentierte‘ Leute mit praktischer Erfahrung im gesamten Lebenszyklus von Chips sein, und das ‚Geld‘ muss ‚lebendiges Geld‘ sein, das weiterhin Einnahmen basierend auf dem Rechenleistungsgeschäft beisteuert. In dieser Hinsicht, Major.“ Hersteller können sich auf den geschlossenen Kreislauf des KI-Geschäfts verlassen, um eine Bestandsaufnahme der Zukunftsaussichten zu machen, den Bedarf an Rechenleistung zu quantifizieren und die strategische Koordination von Menschen und Geld selbst entwickelten Chips abzuschließen sind von selbst gekommen“, sagte Yu Hao gegenüber Xinchao IC.

Allerdings beginnt die Eintrittsgebühr für den Sitz am selbst entwickelten Pokertisch bei mindestens 2 Milliarden US-Dollar. Zu Beginn dieses JahresOpenAI CEO Sam Altman spekulierte sogar über einen verrückten Plan, 7 Billionen US-Dollar für den Bau von Chips aufzubringen, obwohl die beteiligte Person das Gerücht später dementierte.

Einer mit der Angelegenheit vertrauten Person zufolge „wird jedes Unternehmen, das seine Produkte der ersten Generation weiter entwickelt, mindestens 2 Milliarden US-Dollar kosten, um die Massenproduktion zu steigern, wenn man die Berechnung auf der Grundlage des 7-Nanometer-Zwischenknotens durchführt.“

Darüber hinaus sind selbst entwickelte Chips meist für den Eigengebrauch bestimmt und müssen nicht die Schwierigkeit des Aufbaus eines Ökosystems berücksichtigen. Ran Ciyuan zitierte einen Partner von Sky Eagle Capital mit den Worten: „Das architektonische Design von Spezialchips muss im Allgemeinen nicht besonders kompliziert sein, die Anwendungseigenschaften sind auch sehr klar und die Entwicklung ist relativ schnell. Daher für viele Internet.“ Unternehmen, deren Entwicklung von Spezialchips in einem klaren Szenario liegt, müssen nicht zu viel Geld und Zeit aufwenden, um das Software-Ökosystem zu entwickeln, und das Prozess-IP ist ebenfalls ausgereift.“

Die Theorie funktioniert, aber wie können wir das Selbststudium zum Erfolg führen?

Nach Branchenkenntnissen kann die Chip-Selbstforschung in Front-End- und Back-End-Teile unterteilt werden. Das Front-End ist das logische Design, das die grundlegendsten Funktionen des Chips umfasst. Das Back-End ist das physische Design, das die Einheit ist, die alle Funktionen in die Schaltung implementiert und diese ausführt.

Schematische Darstellung des selbst entwickelten Chip-Prozesses

Im Allgemeinen sind die einzigen Designs, die kleine Teams unabhängig voneinander fertigstellen können, das Front-End und das Back-End des Logikchips und die Software-Toolkette selbst, aber trotzdem verfügen viele Designs nur zu 5 % über selbst entwickelte dedizierte Schaltkreise.

Die oben genannte mit der Angelegenheit vertraute Person sagte: „Jeder auf dem Markt erledigt 1/5 selbst und bittet andere, die restlichen 4/5 zu erledigen. Dies ist ein ziemlich ausgereiftes Ökosystem. Einige sind durchgekommen.“ schlechte Kanäle, und einige laufen über schlechte Kanäle, wie zum Beispiel Lizenzen von IP-Design-Herstellern wie ARM.“

Viele Teams haben tatsächlich die Möglichkeit, einige Schaltkreise unabhängig zu entwerfen. Da sie jedoch IP überwinden müssen, das einem sehr strengen Schutz des geistigen Eigentums unterliegt, ist es wahrscheinlich, dass es die Computerarchitektur verletzt und nicht verwendet werden kann, selbst wenn es hergestellt wird sogar das geistige Eigentum anderer verletzen, ist dies auch die erste Hürde, auf die inländische Hersteller bei der Entwicklung ihrer eigenen Chips stoßen.

Es gibt auch einige Dinge, die das Selbstforschungsteam nicht entwerfen kann, wie zum Beispiel einige sehr schwierige Strukturen von NOC (Network on Chip).

Das Design ist nur ein Teil selbst entwickelter Chips. Dazu gehören auch Tape-Out, Massenproduktion usw. Sie können dabei auf verschiedene Probleme stoßen, einschließlich Tape-Out-Fehler, Massenproduktionskapazität usw., aber diese sind nicht selbst -Am Ende muss es auch eine Reihe unterstützender Probleme lösen, einschließlich der Frage, wie die Integration der Industriekette umgesetzt werden kann.

Aus der Sicht der Außenwelt ist ein dedizierter Logikchip etwa 500 mm² groß, und eine Allzweck-GPU kann 800 mm² groß sein und Dutzende Milliarden oder sogar Hunderte Milliarden Transistoren enthalten Wird als Vektorprozessor betrachtet, erfordert jedoch für die Implementierung in Anwendungsszenarien auch das Design und die Implementierung von Speicher, Energieverbrauchssteuerung, Stromversorgung und allgemeinen Maschinenbetriebsbedingungen. Außerdem sind Verbindungen und Netzwerke erforderlich, um einen größeren Cluster zu bilden.

Darüber hinaus besteht das ultimative Ziel von Produkten darin, eine Differenzierung zu schaffen, die auf der Peripherieschnittstelle und der gesamten Maschine erfolgen muss, und es werden verschiedene SKUs angezeigt. Die Branche vergleicht normalerweise Speicher, Energieverbrauch und Quadratmetereffizienz aus der Perspektive die ganze Maschine.

Mit anderen Worten: Zusätzlich zur Industriekettenintegration und zu IP-Problemen müssen selbst entwickelte Chips auch Produkt-SKUs berücksichtigen. Es reicht nicht aus, einen Logikchip zu entwerfen.

Eine hochrangige Person, die anonym bleiben wollte, sagte zu Xinchao IC: „Viele inländische Unternehmen verfügen nicht über die Fähigkeit, Produkte zu entwerfen, und müssen sich zum Testen an verschiedene Orte begeben.“ . Die Rechenzentren großer Hersteller hoffen, dass sie sich einen Sockel auf dem neuen Server-Motherboard überlassen können. Allerdings gibt es tatsächlich nur wenige Erfolge.

Neben Design, Tape-Out und Produktisierung ist die Massenproduktion eine weitere Herausforderung. Kleine Teams müssen überlegen, ob sie Produktionskapazitäten buchen können?

„Die Produktion ist für Fab-Fabriken immer eine sehr kritische Zahl.“ Wu Zihao, ein ehemaliger TSMC-Fabrikbauexperte, sagte, dass Hersteller verstehen müssen, welche Verbindung sie eingehen und wie viel Produktion sie versprechen.

Erstklassige Hersteller haben im Wesentlichen die neuesten Produktionskapazitäten von Fab-Fabriken während der DTCO-Phase (Design Technology Collaborative Optimization) gebucht. Derzeit sind jedes Jahr viele Mitarbeiter der weltweit führenden Designteams wie ARM bei TSMC stationiert viele EDA-Hersteller.

DTC ermittelt die Leistungsindikatoren von Prozessoren der nächsten Generation auf bestimmten Knoten, z. B. wie viel Geld eingespart werden kann und wie viel Leistung durch vernünftiges Layoutdesign am 3-nm-Knoten verbessert werden kann.

„NVIDIA und Apple sind immer bereit, die fortschrittlichsten Herstellungsprozesse zu testen. Solange TSMC einen hochmodernen Herstellungsprozess entwickelt, auch wenn die Ausbeute und der Leistungsgewinn unbekannt sind, also bevor das Wirtschaftsmodell dies kann.“ „Wenn wir kalkulieren, werden sie bereits Produktionskapazitäten buchen. Die Zusammenarbeit von DTCO mit Fab-Fabriken ist der Hauptgrund für erstklassige Hersteller, Produktionskapazitäten zu erhalten“, sagte Wu Zihao.

Wenn es von Anfang an kein kollaboratives Design gibt, müssen die Fab-Fabrik und das Fabless-Team, Partei A und Partei B, die Rollen tauschen. Weil sich niemand traut, es zu nutzen, kann die Fab-Fabrik ihren neuen Prozess nur nach und nach vorantreiben , beginnend mit dem Prozess mit dem geringsten Risiko.

Bergbaumaschinenchips haben beispielsweise eine sehr einfache Struktur und eine sehr geringe Größe, sodass sie sich sehr gut für erste Tests eignen. Der erste Kunde des 3-nm-Chips von Samsung war eine Bergbauausrüstungsfabrik aus China.

Wu Zihao sagte: „Nachdem sich die Fab-Fabrik mit solch kleinen Kundenaufträgen erfolgreich bewährt hat, kann sie dann versuchen, Schritt für Schritt PC-CPUs, Mobiltelefonchips und schließlich KI-Chips in Massenproduktion herzustellen.“

Derzeit haben große inländische Hersteller mindestens Milliarden Dollar in selbst entwickelte Chips investiert. Wenn ein Start-up-Unternehmen in das Spiel einsteigen möchte, muss es entweder über genügend frühe Kunden verfügen oder über eine Anwendungsplattform verfügen, die die Chipanpassung und Versuch und Irrtum unterstützt, oder es muss über ausreichend Kapital oder starke Finanzierungsmöglichkeiten verfügen Sei getroffen.

Chen Wei erklärte gegenüber Xinchao IC, dass, wenn es sich um ein kommerzielles Unternehmen ohne billige Arbeitskräftereserven handelt und nicht auf Schulen oder Forschungsinstitute angewiesen ist, vor der Massenproduktion eine Finanzierung von mindestens 500 Millionen RMB bis 1 Milliarde RMB erforderlich ist ist ein Forschungsinstitut oder Forschungsinstitut. Mit anderer Unterstützung können die Arbeitskosten erheblich gesenkt werden, und die finanzielle Schwelle kann etwas niedriger sein.

„Wenn Sie nicht so viel Geld haben, dieses Startup aber über sehr starke Kostenkontrollfähigkeiten verfügt, kann es die vor- und nachgelagerte Zusammenarbeit voll ausschöpfen, um die Kosten zu senken. Alles dient dazu, die Fortsetzung der Produktforschung und -entwicklung sicherzustellen.“

In Bezug auf die Fab-Auswahlpriorität werden sich Startups nach Angaben von mit der Angelegenheit vertrauten Personen zunächst dafür entscheiden, die Produktionskapazität von TSMC zu bestellen, gefolgt von GlobalFoundries, aber GlobalFoundries verfügt nicht über fortschrittliche Prozesse und Verpackungen, und dann werden sie sich an SMIC wenden, sondern an SMIC All Die international buchbare Produktionskapazität ist für das übernächste Jahr geplant.

Angesichts dieser Situation nehmen Investmentinstitute eine längerfristige Perspektive ein.

Yu Hao sagte, dass es allein bei inländischen selbst entwickelten High-End-Chips unvermeidlich sei, kurzfristig mit Tape-Out-Engpässen zu rechnen. Langfristig hänge dies von der Entwicklungsgeschwindigkeit der fortschrittlichen Prozesslinienpolitur und der Kapazitätserweiterung ab, die durch SMIC repräsentiert würden beruht hauptsächlich auf der internen Zirkulation. Hersteller mit High-End-Chipdesign-Fähigkeiten könnten jedoch darüber nachdenken, ins Ausland zu gehen und die externe Zirkulation zu nutzen, um die interne Zirkulation voranzutreiben.

03 Es ist nicht einfach, Nvidias „Totengräber“ zu sein

Alte Kunden gründen ihre eigenen Unternehmen, und Nvidia ist immer derjenige, der Schaden nimmt.

Diese globale Welle der Selbsterforschung explodiert stärker als die letzte. Neben ausgereiften Selbstforschungsergebnissen wie Google TPU und Amazon Graviton. Kürzlich wurde der gesamte Technologiekreis von „Sohu, dem weltweit ersten KI-Chip speziell für Transformer“ getroffen.

US-Chip-Startup Etched bringt Transformer-spezifischen KI-Chip Sohu auf den Markt

Dieser Chip bettet die Transformer-Architektur direkt in den Chip ein und seine Rechenleistung übertrifft die von GPUs und anderen allgemeinen Chips für künstliche Intelligenz bei weitem. Er soll zehnmal leistungsstärker sein als der B200, ein erstklassiger Chip, der erst 2011 auf den Markt kam März dieses Jahres. Es wird gemunkelt, dass ein mit 8 Sohu-Chips ausgestatteter Server eine Leistung hat, die mit einem Cluster aus 160 H100-GPUs vergleichbar ist, und bis zu 500.000 Llama 7B-Token pro Sekunde verarbeiten kann.

Das „beliebte Brathähnchen“ war geboren und die Fab-Fabrik und ihre Partner waren glücklich.

Es wird berichtet, dass das Unternehmen direkt mit dem 4-nm-Prozess von TSMC für die Produktion von Sohu-Chips zusammengearbeitet hat und ausreichend HBM- und Serverlieferungen von Top-Lieferanten erhalten hat. Einige frühe Kunden haben bereits Hardware im Wert von mehreren zehn Millionen Dollar vom Unternehmen gebucht. Netizens gaben Etched einen Spitznamen – „Nvidias Totengräber“.

Doch wird der Mythos der „Selbstforschung“ von NVIDIA durch den aufsteigenden Rauch zerplatzen? eigentlich nicht.

In der Halbleiterindustrie gibt es einen berühmten „Mr. Ben-Zyklus“ – Chiptypen entwickeln sich regelmäßig zwischen Generalisierung und Anpassung – in einem bestimmten Zeitraum verkauft sich die allgemeine Struktur am besten und ist bei den Benutzern beliebt, aber ab einem bestimmten Stadium , Allzweckstrukturen werden bei der Reaktion auf spezifische Bedürfnisse ins Hintertreffen geraten und Spezialstrukturen werden beliebter.

Und NVIDIA repräsentiert zu Recht die Ära der universellen Architektur, die sich zufällig noch auf ihrem Höhepunkt befindet.

Laut Statistiken von Wells Fargo hält NVIDIA derzeit 98 % des weltweiten Marktes für KI-Beschleunigung in Rechenzentren und nimmt eine absolut beherrschende Stellung ein. Das bedeutet, dass 98 % der Weltbevölkerung NVIDIAs CUDA C verwenden, um die Leistung aller GPUs „herauszuquetschen“, und nur die restlichen 2–3 % der Menschen bestehen immer noch darauf, einen schlechten „Hammer“ zu verwenden, um dasselbe zu hämmern "Nagel".

„Ob nun Amazon oder Intel, die Prozessoren, die sie selbst herstellen, können die Interessen eines Cloud-Anbieters wirtschaftlich nicht befriedigen, daher werden sie auf jeden Fall weiterhin NVIDIA-Chips in großen Mengen verwenden, bis NVIDIA eines Tages seinen Vorteil völlig verliert. Unterwegs.“ der Fachrichtung Tierhaltung, sagte die mit der Angelegenheit vertraute Person.

Allerdings entspricht das Hinlegen nicht der Persönlichkeit von NVIDIA. In seiner Rede vor einem Jahr an der National Taiwan University sagte er: „Ob es ums Essen geht.“ , oder auch nicht Wenn du von anderen als Nahrung benutzt wirst, weißt du oft nicht, in welcher Situation du dich befindest, aber rennst weiter, egal was passiert.“

Diesmal spielt auch Nvidia seine Karten aus, wenn es um die Herausforderung der Selbstforschung im gesamten Silicon Valley geht.

Die oben genannte leitende Person sagte gegenüber Xinchao IC: „Nvidia ist keine Allzweck-GPU mehr. In seiner GPU-Einheit können Sie eine große Anzahl von Tensor-Kernen sehen, um Matrixberechnungen zu lösen.“ Engines usw., sei es in Bezug auf die Hardwarestruktur oder Hardware-Operator-Updates, NVIDIA drängt sich jedes Jahr in Richtung des DSA-basierten Designtrends.“

DSA (Domain Specific Architecture) ist eine programmierbare Prozessorarchitektur, die auf bestimmte Bereiche zugeschnitten ist und die Leistung und Kosteneffizienz bestimmter Anwendungen optimieren kann. Derzeit haben Google, Tesla, OpenAI und Cerebras alle ihre eigenen DSA-Chips für bestimmte Anwendungen auf den Markt gebracht.

Laut mit der Angelegenheit vertrauten Personen werden alle DSA-Hersteller feststellen, dass die Vorteile der DSA-Hersteller vollständig verloren gehen, selbst wenn Nvidia die Hardware nicht ändert und Allzweck-GPUs nur einen Betreiber aktualisieren. Es scheint, dass im Vergleich zu NVIDIA nicht nur die Logikchipfläche nicht groß genug ist, sondern auch die Gerätekapazität und -geschwindigkeit nicht groß genug ist, die Rechenleistung nicht so gut ist wie bei NVIDIA und die Softwareanpassungsfähigkeit nicht gut genug ist womit alle DSA-Hersteller konfrontiert sind: Der Muben-Zyklus sollte sich ursprünglich in Richtung einer domänenspezifischen DSA-Architektur und -Anpassung bewegen, aber jetzt ist er in die Ära der Allzweckprozessoren zurückgekehrt.

Neben dem „Blick in den Spiegel“ mit DSA-Herstellern hat Nvidia auch einen Olivenzweig zur Selbstforschung ausgeweitet. Anfang 2024 gründete das Unternehmen unter der Leitung der Halbleiterveteranin Dina McKinney eine neue Geschäftsabteilung speziell für Cloud Computing und 5G-Telekommunikation Wir bauen maßgeschneiderte Chips für Kunden aus der Automobilindustrie und anderen Bereichen.

Reuters zitierte mit der Angelegenheit vertraute Personen mit den Worten, dass Nvidia-Führungskräfte sich mit Vertretern von Amazon, Meta, Microsoft, Google und OpenAI getroffen hätten, um maßgeschneiderte Chips für sie zu besprechen. Neben Chips für Rechenzentren strebe das Unternehmen auch die Beschaffung von Telekommunikations- und Automobilchips an und Videospiel-Client.

Zuvor wurde berichtet, dass die von Nintendo in diesem Jahr auf den Markt gebrachte neue Version der Nintendo Switch-Spielekonsole voraussichtlich mit den maßgeschneiderten Chips von NVIDIA ausgestattet sein wird. NVIDIA ist auch auf dem Handheld-Markt stark vertreten und hat eine Tegra-Serie mobiler Chips auf den Markt gebracht. Obwohl diese Chipserie letztendlich keinen Platz auf dem Markt für mobile Geräte einnahm.

In einem von Kosteneffizienz dominierten Markt ist es nicht so einfach, Nvidias Totengräber zu sein. Die meisten der bisherigen Totengräber sind gescheitert – sie werden möglicherweise irgendwann übernommen. Intel und Google haben beispielsweise viele Startups übernommen, aber die meisten anderen Unternehmen haben nicht einmal auf die Übernahme gewartet und sind direkt gestorben.

Vielleicht ist es für Start-ups einfacher, erfolgreich zu sein, wenn sie ihre Perspektive ändern.

„Seien Sie zum Beispiel nicht besessen vom KI-Prozessor selbst. Anstatt viel Zeit damit zu verbringen, das Ideal eines DSA zu erfüllen, ist es besser, Lösungen auf Systemebene in Betracht zu ziehen. Beispielsweise können Peripheriegeräte dafür gemacht werden.“ „Erbringung von Dienstleistungen für den KI-Prozessor und professionelle Speicherung, professionelle Sensoren können ebenfalls den gleichen Zweck erfüllen“, sagte die mit der Angelegenheit vertraute Person.

Im Jahr 2019 kündigte Nvidia an, Mellanox für 6,9 Milliarden US-Dollar zu übernehmen. Diese Bewertung war so hoch, dass Nvidia fast seinen gesamten Cashflow überzog.

Dieses Unternehmen entwickelt weder Ports noch Photovoltaikmodule, noch entwickelt es selbst Schalter. Es stellt nur ein Produkt her – das PHY „InfiniBand“ für die Hochgeschwindigkeitsverbindung zwischen der unteren Schicht des Schalters und der unteren Schicht der Kommunikation. Für Nvidia, das damals bestrebt war, die Beschränkungen der Serververnetzung zu durchbrechen, war dies eine sehr zentrale Peripherieanforderung. Egal wie gut NVLink zu dieser Zeit war, es war immer auf eine einzelne Maschine beschränkt. Aber InfiniBand kann es Switches ermöglichen, den Verbindungsengpass zwischen Servern zu überwinden und alle GPUs zu einem großen Cluster zu verbinden.

Betrachtet man die aktuelle Situation, boomt die Situation im Inland und die Kugeln selbst entwickelter Chips werden noch eine Weile fliegen müssen. Chen Wei glaubt, dass die Entwicklung eines Spiels keine schlechte Sache ist, aber es ist notwendig, ein High-End-Spiel zu entwickeln, um nicht den kritischen Zeitraum für die industrielle Entwicklung zu verpassen.

Zhou Jiangong, der Gründer von Unfinished Research, hat diese Ansicht weiter vertieft. Er glaubt, dass zukünftige Anwendungen professionelle, maßgeschneiderte und miniaturisierte KI-Chips erfordern werden, die die Nachfrage nach hochmodernen Basis-Großmodellen übertreffen werden. Das Training von Open Source, kleineren Modellen zu geringeren Kosten oder die Feinabstimmung und Destillation großer Modelle sowie Inferenz bieten viel Raum für selbst entwickelte Chips. Darüber hinaus wird es im schnellen Wandel und im unausgereiften Stadium neuer Technologien zahlreiche Möglichkeiten zur Selbstforschung rund um die oben genannten Anwendungen geben.

„Machen Sie keine Dinge, die Nvidia ruinieren, sondern tun Sie mehr Dinge neben Nvidia.“