Nachricht

NVIDIA stellt das Superchip-System Blackwell GB200 vor: KI-Inferenzleistung steigt um das 1,5-fache

2024-08-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Es wurde bereits berichtet, dass sich die Lieferung der neuen GPU-Generation mit der Blackwell-Architektur verzögert hat. Der Beamte hat dies jedoch weder zugegeben noch dementiert. Stattdessen wurde stillschweigend ein Serversystem auf Basis der neuen GB200-GPU+GPU-Super herausgenommen Chip und demonstrierte es.

GB200 Grace Blackwell umfasst zwei B200-GPUs und eine Grace-CPU mit einem Gesamtstromverbrauch von bis zu 2700 W.

Darunter verfügt der B200 über 204 Milliarden Transistoren, einen 8096-Bit-HBM3E-Speicher mit 192 GB (Bandbreite 8 TB/s), eine Leistung von 9 PFlops (9 Billiarden Mal pro Sekunde) und ein Stromverbrauch von erstmals 1000 W.


Der von NVIDIA gezeigte Server gleicht einem Kunstwerk: Blaue und kupferfarbene Kabel, eine große Anzahl von Kupferrohren mit ultradickem Durchmesser und extrem große Kühlkörper bilden ein Gigant.

NVIDIA gab die konkrete Konfiguration nicht bekannt, lediglich, dass sie in zwei Versionen mit und ohne NVSwitch unterteilt ist, mit einer Gesamtbandbreite von bis zu 14,4 TB/s.

In Bezug auf die Leistung werden nur eine Daten angegeben: Die KI-Inferenzleistung des großen Modells Llama 3.1 mit 70 Milliarden Parametern ist im Vergleich zum H200 um das ganze 1,5-fache verbessert.

Was tun gegen die Wärmeableitung? NVIDIA gab bekannt, dass es ein Heißwasserkühlsystem entwickelt, das den Stromverbrauch um 28 % senken kann.


Allerdings hat NVIDIA noch keine Angaben zur Lieferzeit für Blackwell-GPU-Server gemacht, die voraussichtlich im vierten Quartal dieses Jahres liegen wird.

Auf der bevorstehenden Hot Chip 2024-Konferenz wird NVIDIA die Blackwell-GPU ausführlich erläutern und weitere Neuigkeiten über zukünftige Vera-CPUs und Rubin-GPUs bekannt geben.