Nachricht

100.000 Nvidia-GPUs! Musk plant, bis Ende des Jahres „die leistungsstärkste KI der Welt“ zu trainieren

2024-07-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Musk sagte, dass er bis Ende dieses Jahres die leistungsstärkste KI der Welt trainieren werde.

Am 22. Juli Ortszeit erklärte Tesla-CEO Elon Musk auf seiner sozialen Plattform (Memphis Supercluster) „zur Schulung“.

Er stellte vor, dass der „Memphis Super Cluster“ aus 100.000 flüssigkeitsgekühlten H100-GPUs besteht, die auf einer einzigen RDMA-Struktur laufen (d. h. einer Remote-Direktdatenspeicherstruktur, die die Verzögerung der serverseitigen Datenverarbeitung bei der Netzwerkübertragung lösen kann). Es handelt sich um „das weltweit größte leistungsstarke Trainingscluster für künstliche Intelligenz“.

Musk fügte außerdem hinzu, dass das Ziel darin bestehe, bis Dezember dieses Jahres „die in jeder Hinsicht leistungsstärkste künstliche Intelligenz der Welt“ zu trainieren.

Zuvor hatte Musk bekannt gegeben, dass der Cluster zum Trainieren des großen Sprachmodells Grok-3 der dritten Generation von xAI verwendet werden würde.

Im Mai dieses Jahres gab Musk bekannt, dass sein Unternehmen für künstliche Intelligenz xAI den Bau eines Supercomputers mit der Bezeichnung „Rechenleistungs-Superfabrik“ plant, der voraussichtlich viermal so groß sein wird wie der leistungsstärkste Konkurrent auf dem Markt. Der Computer wird mit der NVIDIA H100-GPU ausgestattet sein.

Vor einem Jahr gab xAI seine offizielle Gründung bekannt und erklärte, dass der Zweck des Unternehmens darin bestehe, „die wahre Natur des Universums zu verstehen“. xAI erklärte auf seiner offiziellen Website: „Wir sind ein von X Corp unabhängiges Unternehmen, werden aber eng mit X, Tesla und anderen Unternehmen zusammenarbeiten, um unsere Mission zu erreichen.“

Im November 2023 veröffentlichte xAI sein erstes großes Modell, Grok-1.

Diesen Monat kündigte Musk an, dass Grok-2 im August auf den Markt kommen und fortschrittlichere KI-Funktionen mitbringen wird. Gleichzeitig gab er bekannt, dass Grok-3 100.000 NVIDIA H100-Chips für das Training verwenden wird und voraussichtlich Ende des Jahres veröffentlicht wird. Er glaubt, dass es „ganz besonders“ sein wird.

Im Mai dieses Jahres gab xAI bekannt, dass es eine Serie-B-Finanzierung in Höhe von 6 Milliarden US-Dollar erhalten hat. Zu den Hauptinvestoren zählen Andreessen Horowitz, Sequoia Capital usw. Die Pre-Money-Bewertung von xAI beträgt 18 Milliarden US-Dollar, und die Post-Money-Bewertung nach dieser Finanzierungsrunde wird 24 Milliarden US-Dollar erreichen.

Im Zuge des KI-Trends ist die Rechenleistung zum Schlachtfeld für Technologiegiganten geworden. Meta gab im Januar dieses Jahres bekannt, dass das Unternehmen plant, bis Ende dieses Jahres 350.000 NVIDIA H100-GPUs bereitzustellen und damit die Rechenleistung von Meta auf ein Niveau zu erhöhen, das 600.000 NVIDIA H100-GPUs von Microsoft entsprichtOpenAIEs gibt Pläne für den Bau eines neuen Supercomputers namens Stargate, der bis zu 100 Milliarden US-Dollar kosten könnte und bis 2030 vollständig entwickelt sein soll.