Nachricht

Xiao Zha und Lao Huang führen beim Umziehen ein vertrauliches Gespräch am Kamin!Xiao Zha hat tatsächlich die explosionsgeschützte Dicke durchbrochen und Lao Huang gab bekannt, dass die erste Charge von Blackwell freigegeben wurde

2024-07-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Neuer Weisheitsbericht

Herausgeber: Redaktion

[Einführung in die neue Weisheit] Gerade hat Lao Huang auf der SIGGRAPH-Konferenz enthüllt: Die technischen Muster von Blackwell wurden diese Woche offiziell in die Welt verschickt! Später führten Lao Huang und Xiao Zha ein Gespräch am Kamin und tauschten vertraulich ihre Kleidung aus. Als sie den aufregenden Punkt erreichten, wurde Xiao Zha so wütend, dass er explodierte.

Aktuelle Neuigkeiten sind da!

Gerade erst hat Lao Huang auf der Computergrafikkonferenz SIGGRAPH verraten: Erst diese Woche hat NVIDIA damit begonnen, Blackwell-Engineering-Muster in die Welt zu schicken!

Unmittelbar danach scherzte Moderatorin Lauren Goode: Ja, alle senken den Kopf, da liegt es unter dem Hocker.

Es ist erwähnenswert, dass hinter diesem derzeit leistungsstärksten KI-Chip auch die KI untrennbar verbunden ist –

Ohne KI wäre Hopper nicht möglich; ohne KI wäre Blackwell auch nicht möglich.


In einem Kamingespräch zwischen ihm und Xiao Zha konnte Xiao Zha sogar nicht anders, als einmal zu fluchen, als er emotional wurde.

Denn die Wirkung der bisherigen Kleidungswechsel der beiden Chefs ist wirklich schwer zu beschreiben.

Diesmal schenkte Xiao Zha Lao Huang speziell einen maßgeschneiderten Baumwollmantel im „schwarzen Lederstil“.


Nach der Einnahme des Oberkörpers ist die Wirkung tatsächlich hervorragend!


Natürlich zog Xiao Zha auch Lao Huangs „gebrauchte“ Lederjacke an, die er nur zwei Stunden lang benutzte. (Das ist viel wertvoller als ganz neu)


NVIDIAs Welt der digitalen „Repliken“

Auf der Konferenz gab Lao Huang bekannt, dass NVIDIA das weltweit erste generative KI-Modell entwickelt hat, das OpenUSD (Sprache, Geometrie, Materialien, Physik und Raum) verstehen kann.

Was ist OpenUSD? Es bezieht sich auf die universelle Szenenbeschreibung, die als universelle Szenenbeschreibung verstanden werden kann.

Huang sagte, was spannender sei als das, was KI mit Text machen könne, sei, dass wir dasselbe mit Bildern machen könnten.

Beispielsweise ist das von NVIDIA erstellte Edify AI-Modell ein Basismodell von Text bis 2D.


Für Marken können daraus Coca-Cola, Autos, Luxusgüter usw. entstehen. Allerdings ist es schwierig, Hinweise zu kontrollieren.

Denn der Spielraum der Wörter ist sehr gering, sie sind inhaltlich extrem komprimiert, gleichzeitig aber auch sehr ungenau.

NVIDIA hat dafür eine Möglichkeit geschaffen: Erstellen Sie ein anderes Modell, steuern Sie es und passen Sie seine Ausrichtung an mehr Bedingungen an.


Mit Omniverse lassen sich all diese multimodalen Daten und Inhalte kombinieren, egal ob 3D, KI, Animation oder Materialien.

Wir können seine Haltung, Position, kurz gesagt, alles ändern, was wir wollen.

Die Verwendung von bedingten Eingabeaufforderungen in Omniverse kann als eine Art 3D-erweiterte Generierung verstanden werden, genau wie die verbesserte Retrieval-Generierung.

Auf diese Weise können wir das Bild so erzeugen, wie es uns gefällt.

Als nächstes nutzte WPP Shutterstock, um Arbeiten mit weltbekannten Marken fertigzustellen, was das Publikum direkt schockierte.

Bauen Sie mir einen Tisch in einem leeren Raum mit Stühlen darum herum in einem geschäftigen Restaurant.


Bauen Sie mir im Morgenlicht einen Tisch mit Tacos und einer Schüssel Salsa auf.


Baue mir ein Auto auf einer leeren Straße, umgeben von Bäumen, in der Nähe eines modernen Hauses.


Bau mir einen Baum auf einem leeren Feld.


Baue mir Hunderte dieser Bäume in alle Richtungen.


Lasst die Wälder mit Büschen und Weinreben behangen sein.


Baue mir einen riesigen Regenwald voller exotischer Blumen und Sonnenstrahlen.


Omniverse versteht jetzt die Umrechnung von Text in USD. Es versteht Text und verfügt über eine semantische Datenbank, sodass alle 3D-Objekte durchsucht werden können.

So kann sich das kleine Mädchen vorstellen, wie es den 3D-Baum füllen möchte, und sobald es fertig ist, wird die 3D-Szene in ein generatives KI-Modell umgewandelt, das sie in ein fotorealistisches Modell umwandelt.

Von da an wird in Omniverse immer mehr generative KI auftauchen, um den Menschen bei der Erstellung dieser Simulationen oder digitalen Zwillinge zu helfen.

Die folgende digitale KI wird es beispielsweise jedem Unternehmen ermöglichen, Kundenservice zu bieten.

Derzeit wird der Kundenservice von Menschen erledigt, in Zukunft wird jedoch auch KI eine Rolle spielen.

Der Kundenservice wird mit einem digitalen menschlichen Frontend verbunden, einem IO. Dieser IO kann mit uns sprechen und Blickkontakt aufnehmen.


Alle Arten von KI können mit diesem digitalen Menschen verbunden werden, und sogar der digitale Mensch kann mit der suchgestützten Kundenservice-KI von NVIDIA verbunden werden.

NIM-Dienst

Auf dieser Konferenz stellte NVIDIA eine neue Reihe von NIM-Microservices vor.

NIM ist auf verschiedene Arbeitsabläufe zugeschnitten, darunter OpenUSD, 3D-Modellierung, Physik, Materialien, Robotik, industrielle digitale Zwillinge und Physik-KI.

Im Bereich KI und Grafik hat NVIDIA einen neuen OpenUSD NIM-Microservice eingeführt, der für die Generierung physischer KI-Anwendungen konzipiert ist.

Dieser Workflow umfasst neue NIM-Microservices für die Robotersimulation und mehr, um die Entwicklung humanoider Roboter zu beschleunigen.

„Three-Body“ erschafft Roboter

Huang sagte voraus, dass die nächste KI-Welle physische KI sein wird.

Wenn die Robotiktechnologie voranschreiten will, braucht sie fortschrittliche KI und realistische virtuelle Welten. Und bevor die nächste Generation humanoider Roboter eingesetzt werden kann, müssen wir die KI trainieren.

Die Robotik erfordert drei Computer: einen zum Trainieren der KI, einen zum Testen der KI in physikalisch genauen Simulationen und einen im Roboter selbst, der lernen kann, wie man den Roboter optimiert.


Mit anderen Worten: Die dritte KI ist der Computer, der die KI tatsächlich ausführt.

Zu diesem Zweck hat Nvidia drei Computer erstellt.

Ohne KI gäbe es kein H100/H200 und B100

In der Geschichte von NVIDIA seit den 1990er Jahren liegt die wahre DNA in der Computergrafik.

Auch die Computergrafik hat Nvidia dorthin gebracht, wo es heute ist.


Dieses Bild zeigt einige wichtige Meilensteine ​​der Computerindustrie, darunter das IMB 360-System, Utah Teekanne, Raytracing, programmierbare Schattierung usw.

1993 wurde NVIDIA gegründet. Acht Jahre später erfanden sie die erste programmierbare Shading-GPU, die maßgeblich die Entwicklungsgeschichte von Nvidia prägte.

Man kann sagen, dass der Kern hinter allem, was NVIDIA tut, beschleunigtes Rechnen ist. Sie waren fest davon überzeugt, dass sie Probleme lösen könnten, die normale Computer nicht lösen können, wenn sie ein Rechenmodell entwickeln würden, das die allgemeine Datenverarbeitung verbessert.

Das bevorzugte Fachgebiet ist Computergrafik. Sie haben die richtige Wette gemacht.

Die Anwendung von Computergrafiken in einem damals nicht zum Mainstream gehörenden Bereich – 3D-Grafikvideospielen – förderte Nvidias Schwungrad direkt.

Danach dauerte es lange, bis sie CUDA allgegenwärtig machten, und dann wandte sich NVIDIA 2012, wie in Star Trek, zum ersten Mal an AlexNet.

Im Jahr 2012 war es ein explosiver Moment, als AlexNet einen erstaunlichen Durchbruch in der Computer Vision erzielte. Sein Kern – Deep Learning – ist so tiefgreifend, dass Ingenieure sich nicht mehr vorstellen müssen, wie die Ausgabe nach der Bereitstellung von Eingaben aussehen wird.


Im Jahr 2016 brachte Nvidia den ersten für Deep Learning entwickelten Computer auf den Markt, den DGX-1, der von Musk bevorzugt wurde. Das Produkt wurde anschließend an das damals noch wenig bekannte OpenAI geliefert.

Anschließend wurden RTX und DLSS erfunden.

Dann kam die Geburt von ChatGPT.

In Zukunft wird jeder einen KI-Assistenten haben

Heute haben wir gelernt, mit KI alles zu lernen, nicht nur Wörter, sondern auch Bilder, Videos, 3D, Chemikalien, Proteine, Physik, Thermodynamik, Fluiddynamik, Teilchenphysik und mehr.


Wir verstehen die Bedeutung all dieser verschiedenen Modalitäten.

Nach Ansicht von Lao Huang fördert die generative KI-Revolution auf Basis von Visual Computing die menschliche Kreativität.

Wir befinden uns wirklich in einem revolutionären Moment, auf dem Weg in die Ära der Software 3.0 – keine Branche kann sich den Auswirkungen der KI entziehen!


Huang prognostizierte: Jeder wird einen KI-Assistenten haben, und jedes Unternehmen und jeder Arbeitsplatz innerhalb des Unternehmens wird von KI unterstützt.


Beschleunigen Sie die Datenverarbeitung, um Energieprobleme zu lösen

Obwohl von generativer KI erwartet wird, dass sie die menschliche Produktivität steigert, ist der Energieverbrauch der KI-Infrastruktur ein großes Problem, das den gesamten Planeten plagt.

Eine Suche in ChatGPT entspricht der Leistung von 10 Google-Suchen.

Rechenzentren verbrauchen 1 bis 2 % der gesamten globalen Energie und könnten innerhalb eines Jahrzehnts sogar 6 % erreichen.


was zu tun? Lao Huang hat eine Lösung.

Er sagte, dass beschleunigte Computertechnologie das Rechnen voraussichtlich energieeffizienter machen werde.

„Beschleunigtes Rechnen kann uns helfen, viel Energie zu sparen. Es kann 20-mal oder 50-mal einsparen und die gleiche Verarbeitung durchführen“, sagte Huang.

„Das erste, was wir als Gesellschaft tun müssen, ist, jede mögliche Anwendung zu beschleunigen: Das reduziert den Energieverbrauch weltweit.“

Aus diesem Grund wird Blackwell mit großer Spannung erwartet, da es die gleiche Energie verbraucht, aber Anwendungen erheblich beschleunigt.

Und es wird billiger.


Lao Huang betonte: Denken Sie daran, dass das Ziel der generativen KI nicht das Training, sondern das Denken ist. Im Idealfall könnten wir durch Inferenz neue Modelle zur Vorhersage des Wetters, der Vorhersage neuer Materialien, der Optimierung von Lieferketten und mehr erstellen.

Denken Sie daran, dass Rechenzentren nicht die einzigen Orte sind, die Energie verbrauchen. Auf globale Rechenzentren entfallen nur 40 % der gesamten Rechenleistung, und 60 % des Energieverbrauchs erfolgt online, indem Elektronen, Bits und Bytes bewegt werden.

Daher wird die generative KI den Energieverbrauch online reduzieren, da keine Notwendigkeit besteht, Informationen abzurufen, sondern wir sie direkt vor Ort generieren können.


Und gerade hat Nvidia GPUs in GCP bereitgestellt, um Pandas auszuführen.

Die weltweit führende Data-Science-Plattform hat die Geschwindigkeit direkt vom 50- auf das 100-fache erhöht und damit die allgemeine Datenverarbeitung übertroffen.

In den letzten 10 bis 12 Jahren haben wir die Geschwindigkeit des Deep Learning um das Millionenfache erhöht und die Kosten und den Energieverbrauch um das Millionenfache gesenkt. Aus diesem Grund wurde LLM geboren.

Allerdings wird NVIDIA auch neue Innovationen in die KI bringen, indem es neue Prozessoren, neue Systeme, Tensor-Kern-GPUs und NVLink-Switch-Strukturen entwickelt.

Kamingespräch zwischen Lao Huang und Xiao Zha


Das Kamingespräch zwischen den beiden CEOs von SIGGRAPH in diesem Jahr wurde von vielen Menschen schon lange erwartet. Was für Funken werden in Xiao Zhas eigenen Worten „die beiden ältesten Gründer der Branche“ kollidieren?

nächste Welle

Es überrascht nicht, dass die beiden Helden von „Green Plum Cooking Wine“ jeweils ihre Vorhersagen teilten und über zukünftige technologische Entwicklungstrends sprachen, von GenAI über Agent bis hin zum „Metaverse“, über das Xiao Zha immer nachgedacht hat.

Huang sagte, dass er auch von der technischen Leistungsfähigkeit von GenAI schockiert sei: „Ich kann mich an keine Technologie erinnern, die sich so schnell auf Verbraucher, Unternehmen, Industrie und Wissenschaft ausgewirkt hat, und zwar von der Klimatechnologie über die Biotechnologie bis hin zu allem.“ verschiedene Bereiche der Naturwissenschaften.“

Xiao Zha sagte auch, dass GenAI wahrscheinlich die verschiedenen Social-Media-Software von Meta umgestalten wird.

In der Vergangenheit bestand der Kern dieser Produkte, das Empfehlungssystem, lediglich darin, den Benutzern interessante Inhalte zu vermitteln.

Aber GenAI wird nicht mehr nur auf vorhandene Inhalte beschränkt sein, sondern nicht nur die Ersteller unterstützen, sondern auch Echtzeitinhalte für Benutzer erstellen oder vorhandene Inhalte synthetisieren, um diese zu generieren.


Bezüglich der Entwicklung von Agent scheinen die beiden ähnliche Ansichten zu haben.

In seiner vorherigen Rede machte Huang deutlich, dass „in Zukunft jeder seinen eigenen KI-Assistenten haben wird.“

Während dieses Gesprächs äußerte auch Xiao Zha eine ähnliche Vision. Er plant AI Assistant- und AI Studio-Produkte für Meta, die es jedem ermöglichen, seinen eigenen Agenten für verschiedene Zwecke zu erstellen.

In Zukunft wird jedes Unternehmen seine eigene KI haben, so wie heute jedes Unternehmen über eigene Social-Media- und E-Mail-Konten verfügt.

Wie „intelligent“ muss der sogenannte „KI-Assistent“ sein?

Das Llama 3, das wir bisher gesehen haben, ist lediglich ein „Chatbot“-ähnliches Sprachmodell, das nur auf menschliche Fragen antworten kann. Aber Xiao Zha hofft, dass der KI „Absicht“ verliehen werden kann.


Lao Huang beschrieb es als „Planungsfähigkeit“, die wie Menschen einen „Entscheidungsbaum“ im Kopf bilden und dann das Verhalten steuern kann.

Er prognostizierte sogar noch mutiger, dass diese Art von KI-Assistenten nur 10 US-Dollar pro Stunde kosten würde, aber die Arbeitsleistung von Ingenieuren erheblich verbessern könnte. „Wenn Sie noch keine KI eingestellt haben, tun Sie es jetzt!“

In Bezug auf Metas Kern und einzigartigste AR/VR-Technologie ist auch Xiao Zhas Bauplan recht präzise und spiegelt vollständig seine zwanghafte Persönlichkeit wider.

(Laut Lao Huangs Nachrichten können Tomaten millimetergenau geschnitten werden und jede Tomatenscheibe darf sich nicht berühren.)

Im September letzten Jahres brachten Meta und Ray-Ban neue Smart-Brillen auf den Markt, die mit Audiogeräten und Kameras ausgestattet sind und es Benutzern ermöglichen, Fotos direkt aus der Perspektive beider Augen aufzunehmen oder das in der Brille sichtbare Sichtfeld direkt auf Facebook oder Live zu übertragen Instagram und integrierte den Konversationsassistenten Meta AI.


Xiao Zha sagte, dass aufgrund der aktuellen Situation bei Ray-Ban-Brillen KI-Brillen ohne Display zum Preis von 300 US-Dollar ein sehr beliebtes Produkt werden werden.

Seiner Prognose zufolge werden Datenbrillen in Zukunft zu einem Mobiltelefon-ähnlichen Gerät werden, und jeder, der eine Brille trägt, wird eine Datenbrille tragen (mehr als 1 Milliarde Menschen auf der Welt).

In den nächsten Jahren wird Meta auch Brillen mit holografischen AR-Funktionen auf den Markt bringen. Obwohl die Kosten immer noch hoch sind, wird es ein realisierbares Produkt sein.


Anders als intelligente Brillen ähneln Mixed-Reality-Headsets eher Workstations oder Spielekonsolen. Sie sind nicht bequem zu tragen, verfügen aber über eine stärkere Rechenleistung und können Benutzern ein intensiveres Erlebnis bieten.

Darüber hinaus werden mit der Entwicklung der holografischen AR-Technologie „virtuelle Meetings“ bald Realität.

Anders als bei Avataren oder Videos auf der Zoom-Plattform hat jeder sein eigenes holografisches Bild. Auch wenn sie sich in verschiedenen physischen Räumen befinden, können durch Hologramme erstellte „virtuelle Menschen“ im selben Raum zusammenarbeiten und interagieren.

Open Source ist der Weg in die Zukunft

Auch im Bereich Meta ist die konsequente „Open-Source“-Strategie ein zentraler Punkt, der diskutiert werden muss.

Lao Huang schätzt diese Strategie sehr. Er sagte, dass Llama 2 in Verbindung mit PyTorch und dem neu veröffentlichten Llama 3.1 ein ganzes Ökosystem aufgebaut habe.

Aber Xiao Zha sagte, dass ihr Weg zu Open Source auch eine Art „Anpassung“ sei.

In vielen Bereichen, insbesondere bei verteilten Computersystemen und Rechenzentren, liegt Meta in seiner Startlinie tatsächlich hinter anderen Unternehmen zurück, sodass das Team an Open Source dachte, insbesondere an Open Compute.

Unerwarteterweise ist dieses Mittel zu einer Schlüsselstrategie für das „Überholen in Kurven“ geworden.

Es ist Open Source, das die von Meta veröffentlichten Produkte zu Industriestandards macht und die gesamte Lieferkette darauf aufbaut. Meta hat sogar Milliarden von Dollar gespart, indem es das Projekt als Open-Source-Lösung bereitgestellt hat.

Beispielsweise ist Meta tatsächlich später als die meisten Unternehmen in den GPU-Bereich eingestiegen, aber die Größe der GPU-Supercomputing-Cluster, die sie derzeit betreiben, übertrifft die fast aller Konkurrenten.

Dahinter steckt natürlich die starke Unterstützung von Lao Huang, schließlich stammen auch die 600.000 GPUs von Meta von Nvidia.


Obwohl Open Source den Fortschritt dieser Community und Branche fördern kann, sagte Xiao Zha auch ehrlich, dass Open Source keine Wohltätigkeit ist und wir diese Strategie nicht aus selbstlosem Herzen gewählt haben.

Der wichtigere Zweck besteht darin, dass das zu bauende Produkt seinen Höhepunkt erreicht und das bestmögliche Produkt wird.

PyTorch ist das typischste Beispiel. Entwickler auf der ganzen Welt, darunter zwei- bis dreihundert Ingenieure von NVIDIA, helfen diesem Open-Source-Framework, Fehler zu finden und zu optimieren, und bilden so das, was Huang den „PyTorch-Engineering-Berg“ nennt.

Obwohl Xiao Zha selbst zugibt, dass Open Source egoistisch ist, kann er nicht anders, als emotional zu werden, wenn er über „geschlossene“ Plattformen spricht. Das einzige Schimpfwort im Raum kam zu diesem Thema.

Obwohl Meta über eine Reihe erstklassiger sozialer Software verfügt, müssen diese Anwendungen über die Plattformen der Konkurrenz vertrieben werden, insbesondere über den Apple App Store und das Android-System von Google.

Was Xiaozha sehr ärgert, ist, dass er einst viele Produktideen hatte, diese aber aufgrund verschiedener Einschränkungen dieser mobilen Plattformen letztendlich nicht umgesetzt werden konnten.

Die extreme Abhängigkeit von Plattformen im Zeitalter des mobilen Internets unterscheidet sich völlig von der Offenheit des PC-Zeitalters, weshalb Xiao Zha Facebook im Web vermisst.


Daher sagte er mit Zuversicht, dass wir die nächste Generation von Computerplattformen gestalten, nämlich die Mixed-Reality-Technologie, bei der Open-Source-Software wieder an Bedeutung gewinnen wird.

Die Plattform und das Ökosystem der nächsten Generation werden offener und integrativer sein, ähnlich dem vorherigen Windows- oder Android-Ökosystem, und nicht wie das völlig geschlossene Apple.

Dieser Ehrgeiz, „Open Source wieder großartig zu machen“, erinnert die Menschen an seine Metapher, als Llama 3.1 veröffentlicht wurde – Llama 3.1 ist das Linux dieser Ära.

Es ist nicht einfach, CEO zu sein

Während des gesamten Gesprächs fühlten sich die beiden sehr sympathisch und sprachen oft über die Schwierigkeit der CEO-Karriere.

Jensen, 61 Jahre alt und trägt eine Lederjacke, verglich sich sogar mit einer zarten Blume mit ernstem Gesicht: „Wir sind CEOs, wie zarte Blumen, wir brauchen viel Unterstützung.“

Xiao Zha fügte sogar hinzu: „Wir sind jetzt ziemlich abgemagert.“

Diese Emotion könnte auf die Höhen und Tiefen zurückzuführen sein, die die beiden Senior-Gründer mit dem Unternehmen erlebt haben.

Nach Ansicht von Xiao Zha ertrug Lao Huang den Druck, nicht bevorzugt zu werden, und bestand darauf, den Computer zu einem „Superriesen“ zu machen, was Nvidia zu einer Branchenlegende machte;

Nach Ansicht von Lao Huang hat Xiao Zha dazu geführt, dass Meta viele Veränderungen durchgemacht hat, vom PC zum Mobilgerät und von sozialen Medien zu VR/AR und KI-Forschung.

Am Ende des Gesprächs brachte Huang unverblümt die Gemeinsamkeiten zwischen den beiden zum Ausdruck: „Ich weiß, wie schwierig es ist, das (Transformation) zu bewerkstelligen. Wir beide wurden schwer getroffen, aber das ist es, was notwendig ist, um Pionier zu werden und Innovationen voranzutreiben.“ . "

Verweise:

https://www.youtube.com/watch?v=H0WxJ7caZQU

https://www.youtube.com/watch?v=w-cmMcMZoZ4