Belegung

Huang Renxun möchte mit Nvidias „KI-Box“-Upgrades eine digitale Kopie der physischen Welt erstellen

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Text/Tencent-Technologie Li Haidan

Am 30. Juli, Pekinger Zeit, stellte NVIDIA (auch bekannt als NVIDIA) viele seiner neuesten Entwicklungen in den Bereichen Rendering, Simulation und generative KI auf der SIGGRAPH 2024 vor, einer führenden Computergrafikkonferenz in Denver, USA.

Auf der letztjährigen SIGGRAPH stellte NVIDIA die Grafikkarten GH200, L40S und ChatUSD vor. Der diesjährige Protagonist ist NVIDIAs neuer Trumpf im Zeitalter der generativen KI –Neues Upgrade „Nvidia NIMS“.und wenden Sie generative KI über NIM auf USD (universelle Szenenbeschreibung) an, um die Möglichkeiten der KI in der 3D-Welt zu erweitern.

Nvidia NIMS-Upgrade: Segen und Herausforderung zugleich

Nvidia gab bekannt, dass Nvidia NIMS eine weitere Optimierung erreicht und den komplexen Einsatz von KI-Modellen standardisiert. NIMS ist ein wichtiger Bestandteil des KI-Layouts von NVIDIA. Huang Renxun hat die Innovation von NIM wiederholt gelobt und sie als „AI-in-a-Box, im Wesentlichen handelt es sich um künstliche Intelligenz in einer Box。”

Dieses Upgrade festigt zweifellos Nvidias Führungsposition im KI-Bereich und wird zu einem wichtigen Teil seines Technologiegrabens.

CUDA gilt seit langem als Schlüsselfaktor für Nvidias Führungsposition im GPU-Bereich. Mit der Unterstützung von CUDA hat sich die GPU von einem einzelnen Grafikprozessor zu einem universellen Parallelrechnergerät entwickelt, was die KI-Entwicklung ermöglicht. Doch obwohl das Software-Ökosystem von Nvidia sehr reichhaltig ist, sind diese fragmentierten Systeme immer noch zu komplex und schwer zu beherrschen für traditionelle Branchen, denen es an grundlegenden KI-Entwicklungsfähigkeiten mangelt.

Um dieses Problem zu lösen, stellte Nvidia im März dieses Jahres auf der GTC-Konferenz die cloudnativen Microservices NIM (Nvidia Inference Microservices) vor, die die gesamte in den letzten Jahren entwickelte Software integrieren, um die Bereitstellung von KI-Anwendungen zu vereinfachen und zu beschleunigen. NIM kann Modelle als optimierte „Container“ verwenden, die in der Cloud, im Rechenzentrum oder auf der Workstation bereitgestellt werden können, sodass Entwickler die Arbeit in wenigen Minuten erledigen können, beispielsweise die einfache Erstellung generativer KI-Anwendungen für Co-Piloten, Chatbots usw. .

Bisher stellte das NIM-Ökosystem von Nvidia eine Reihe vorab trainierter KI-Modelle bereit.Nvidia gab bekannt, um Entwicklern dabei zu helfen, die Anwendungsentwicklung und -bereitstellung in mehreren Bereichen zu beschleunigen und sich auf verschiedene Bereiche zu konzentrieren (z. B. Verständnis,digitaler Mann, 3D-Entwicklung, Robotik und digitale Biologie) spezifische KI-Modelle verfügbar:

In Richtung Verständnis kann NIM Llama 3.1 und NeMo Retriever verwenden, um die Verarbeitungsfähigkeiten von Textdaten zu verbessern. In Richtung digitaler Menschen bietet es Modelle wie Parakeet ASR und FastPitch HiFiGAN, die High-Fidelity-Sprachsynthese und Automatik unterstützen Spracherkennung zum Aufbau virtueller Assistenten und digitaler Menschen. Bietet leistungsstarke Tools;

Im Hinblick auf die 3D-Entwicklung vereinfachen Modelle wie USD Code und USD Search die Erstellung und den Betrieb von 3D-Szenen und helfen Entwicklern dabei, digitale Zwillinge und virtuelle Welten effizienter zu erstellen;

Im Bereich der Roboterverkörperung hat NVIDIA die Modelle MimicGen und Robocasa auf den Markt gebracht. Beschleunigen Sie die Entwicklung und Anwendung der Robotik durch die Generierung synthetischer Bewegungsdaten und Simulationsumgebungen. MimicGen NIM kann synthetische Bewegungsdaten basierend auf Fernbetriebsdaten generieren, die von räumlichen Computergeräten wie Apple Vision Pro aufgezeichnet wurden. Robocasa NIM generiert Roboteraufgaben und simulationsbereite Umgebungen in OpenUSD, einem universellen Framework für Entwicklung und Zusammenarbeit in der 3D-Welt.

Modelle wie DiffDock und ESMFold im Bereich der digitalen Biologie bieten fortschrittliche Lösungen für die Wirkstoffentdeckung und Proteinfaltungsvorhersage und fördern so den Fortschritt der biomedizinischen Forschung usw.

Darüber hinaus gab Nvidia bekannt, dass die Inferenz-as-a-Service-Plattform Hugging Face ebenfalls von Nvidia NIM unterstützt wird und in der Cloud läuft.

Durch die Integration dieser vielseitigen Modelle verbessert das Ökosystem von Nvidia nicht nur die Effizienz der KI-Entwicklung, sondern bietet auch innovative Tools und Lösungen. Allerdings sind die zahlreichen Upgrades von Nvidia NIM tatsächlich eine „gute Nachricht“ für die Branche. Andererseits bringt es aber auch viele Herausforderungen für Programmierer mit sich.

Nvidia NIM vereinfacht den Entwicklungs- und Bereitstellungsprozess von KI-Modellen erheblich, indem es vorab trainierte KI-Modelle und standardisierte APIs bereitstellt. Dies ist zwar ein großer Segen für Entwickler, aber bedeutet es auch, dass die Beschäftigungsmöglichkeiten für normale Programmierer in Zukunft weiter schrumpfen ?Schließlich können Unternehmen weniger technisches Personal einsetzen, um die gleiche Arbeit zu erledigen, da diese Aufgaben von NIM im Voraus erledigt wurden und normale Programmierer möglicherweise keine komplexen Modellschulungs- und Optimierungsarbeiten mehr durchführen müssen.

Bringen Sie der KI bei, in 3D zu denken und eine virtuelle physische Welt aufzubauen

NVIDIA demonstrierte auf der SIGGRAPH-Konferenz auch die Anwendung generativer KI auf den offenen USD- und Omniverse-Plattformen.

Nvidia gab bekannt, dass es das weltweit erste generative KI-Modell erstellt hat, das die Sprache, Geometrie, Materialien, Physik und den Raum von OpenUSD (Universal Scene Description) verstehen kann, und diese Modelle als Nvidia NIM-Microservices verpackt.Derzeit stehen im Nvidia-API-Katalog drei NIMs zur Vorschau zur Verfügung: USD Code, der offene USD-Wissensfragen beantwortet und offenen USD-Python-Code generiert, der es Entwicklern ermöglicht, das riesige offene USD 3D mithilfe natürlicher Sprache oder Bildeingabe zu durchsuchen und Bilddatenbank; USD Validate, das hochgeladene Dateien auf Kompatibilität mit offenen USD-Versionen überprüft und mithilfe der Omniverse Cloud API vollständig RTX-gerenderte, pfadverfolgte Bilder generiert.

Nvidia sagte, dass mit der Erweiterung und Zugänglichkeit von OpenUSD durch Nvidia NIM-Microservices alle Gesellschaftsschichten in Zukunft physikbasierte virtuelle Welten und digitale Zwillinge erstellen können. Mit der neuen generativen KI auf Basis des offenen USD und den beschleunigten Entwicklungsframeworks von Nvidia, die auf der Nvidia Omniverse-Plattform basieren, können jetzt mehr Branchen Anwendungen zur Visualisierung von Industriedesign- und Ingenieurprojekten sowie für Simulationsumgebungen entwickeln, um die nächste Welle der physikalischen KI und Roboter aufzubauen . Darüber hinaus verbindet ein neuer USD-Anschluss Robotik- und Industriesimulationsdatenformate sowie Entwicklertools und ermöglicht Benutzern das Streamen großer, vollständig Nvidia RTX-Raytracing-Datensätze an Apple Vision Pro.

Kurz gesagt, die Einführung von USD über Nvidia NIM, um die physische Welt besser zu verstehen und virtuelle Welten durch große Modelle aufzubauen, ist ein sehr wertvoller Vorteil.digitale Vermögenswerte . Beispielsweise kam es 2019 in der Kathedrale Notre Dame in Paris, Frankreich, zu einem schweren Brand, bei dem große Teile der Kirche zerstört wurden. Glücklicherweise haben Ubisoft-Spieledesigner dieses Gebäude unzählige Male besucht, seine Struktur studiert, die digitale Restaurierung von Notre Dame abgeschlossen und Notre Dame im 3A-Spiel „Assassin’s Creed: Unity“ nachgebaut. Alle Details haben auch bei der Restaurierung von Notre große Hilfe geleistet Dame von Paris. Damals brauchten Designer und Historiker zwei Jahre für die Reproduktion, aber mit der Einführung dieser Technologie können wir in Zukunft die Reproduktion digitaler Kopien in großem Maßstab beschleunigen und mithilfe von KI die Physik besser verstehen und reproduzieren Art und Weise.

Als weiteres Beispiel erstellen Designer grundlegende dreidimensionale Szenen in Omniverse und nutzen diese Szenen, um die generative KI anzupassen, um einen kontrollierbaren und kollaborativen Prozess zur Erstellung von Inhalten zu erreichen. WPP und The Coca-Cola Company waren beispielsweise die ersten, die diesen Workflow eingeführt haben, um ihre globalen Werbekampagnen auszuweiten.

Nvidia kündigte außerdem die bevorstehende Einführung mehrerer neuer NIM-Microservices an, darunter USD Layout, USD Smart Material und FDB Mesh Generation, um die Anwendungsfunktionen und Effizienz der Entwickler auf der offenen USD-Plattform weiter zu verbessern.

Dieses Mal beteiligte sich NVIDIA Research mit mehr als 20 Beiträgen an der Konferenz und stellte innovative Ergebnisse im Zusammenhang mit der Förderung der Entwicklung von Generatoren für synthetische Daten und Invers-Rendering-Tools vor, von denen zwei mit dem Preis für den besten technischen Beitrag ausgezeichnet wurden. Das zeigen die in diesem Jahr vorgestellten ForschungsergebnisseKI verbessert die Simulationsmöglichkeiten noch weiter, indem sie die Bildqualität verbessert und neue Möglichkeiten der 3D-Darstellung eröffnet ;Außerdem verbessern verbesserte synthetische Datengeneratoren und mehr das Niveau der KI. Diese Studien zeigen Nvidias neueste Fortschritte und Innovationen in den Bereichen KI und Simulation.

Laut Nvidia haben Designer und Künstler jetzt neue Möglichkeiten, ihre Produktivität zu verbessern, indem sie generative KI verwenden, die auf genehmigten Daten trainiert wird. Beispielsweise hat Shutterstock (amerikanischer Bildlieferant) eine kommerzielle Betaversion seines generativen 3D-Dienstes gestartet. Es ermöglicht Entwicklern, schnell Prototypen von 3D-Assets zu erstellen und 360 HDRi-Hintergründe zu generieren, um Szenen nur mithilfe von Text- oder Bildaufforderungen zu beleuchten. Getty Images (US-amerikanisches Fotoaustauschunternehmen) hat seinen generativen KI-Dienst beschleunigt, um die Bildgenerierung zu beschleunigen und die Ausgabequalität zu verbessern. Diese Dienste basieren auf Nvidia Edify, der multimodalen generativen KI-Architektur, mit neuen Modellen, die doppelt so schnell sind, die Bildqualität und die Genauigkeit verbessern und es Benutzern ermöglichen, Kameraeinstellungen wie Schärfentiefe oder Fokus zu steuern. Benutzer können in etwa sechs Sekunden vier Bilder erstellen und diese auf 4K-Auflösung hochskalieren.

Abschluss

Bei jedem wichtigen Anlass, bei dem Huang auftritt, trägt er immer eine Lederjacke und beschreibt der Welt die aufregende Zukunft, die die KI mit sich bringt.

Wir erleben auch das Wachstum von NVIDIA und erleben, wie NVIDIA Schritt für Schritt von einem Gaming-GPU-Giganten zu einem KI-Chip-Overlord und dann zu einem Full-Stack-Layout aus vertikaler und horizontaler KI-Software und -Hardware wird. NVIDIA ist voller Ehrgeiz und iteriert schnell an der Spitze der KI-Technologiewelle.

Von programmierbarer Shading-GPU, CUDA-beschleunigtem Computing über die Einführung von Nvidia Omniverse und generativen KI-NIM-Mikrodiensten bis hin zur Förderung der Entwicklung von 3D-Modellierung, Robotersimulation und digitaler Zwillingstechnologie bedeutet dies auch eine neue Innovationsrunde in der KI Die Industrie kommt.

Da große Unternehmen jedoch über mehr Ressourcen, einschließlich Kapital, Technologie und Arbeitskräfte, verfügen, können sie fortschrittliche Technologien wie Nvidia NIMS schneller einführen und implementieren. Aufgrund begrenzter Ressourcen kann es für kleine und mittlere Unternehmen schwierig sein, mit der Geschwindigkeit der technologischen Entwicklung Schritt zu halten. Wird dies in Verbindung mit den Unterschieden im technischen Niveau der Talente in Zukunft zu mehr technologischer Ungleichheit führen?

Die ideale KI der Menschheit besteht darin, den Menschen dabei zu helfen, ihre Hände und ihre Arbeit frei zu machen und eine Welt mit höherer Produktivität zu schaffen. Aber wenn Produktivität und Produktionsmittel von einer kleinen Anzahl von Menschen kontrolliert werden, wird das dann eine tiefere Krise auslösen? Das sind alles Fragen, über die wir nachdenken müssen.