notizia

100.000 GPU Nvidia! Musk prevede di addestrare "l'intelligenza artificiale più potente del mondo" entro la fine dell'anno

2024-07-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Musk ha detto che addestrerà l'intelligenza artificiale più potente del mondo entro la fine di quest'anno.

Il 22 luglio, ora locale, il CEO di Tesla Elon Musk ha dichiarato sulla sua piattaforma social (Memphis Supercluster)" per la formazione.

Ha introdotto che il "Memphis Super Cluster" è costituito da 100.000 GPU H100 raffreddate a liquido, in esecuzione su un'unica struttura RDMA (ovvero, una struttura di archiviazione dati diretta remota, che può risolvere il ritardo dell'elaborazione dei dati lato server nella trasmissione di rete) È "il più grande potente cluster di formazione sull'intelligenza artificiale al mondo".

Musk ha anche aggiunto che l’obiettivo è quello di addestrare “l’intelligenza artificiale più potente del mondo sotto ogni aspetto” entro dicembre di quest’anno.

In precedenza, Musk aveva rivelato che il cluster sarebbe stato utilizzato per addestrare il modello linguistico di terza generazione Grok-3 di xAI.

Nel maggio di quest'anno, Musk ha rivelato che la sua società di intelligenza artificiale xAI prevede di costruire un supercomputer chiamato "super fabbrica della potenza di calcolo" che dovrebbe essere quattro volte più grande del concorrente più potente sul mercato. Il computer sarà dotato della GPU NVIDIA H100.

Un anno fa, xAI ha annunciato la sua costituzione ufficiale e ha dichiarato che lo scopo dell’azienda è “comprendere la vera natura dell’universo”. xAI ha dichiarato sul suo sito web ufficiale: "Siamo una società indipendente da X Corp, ma lavoreremo a stretto contatto con X, Tesla e altre società per raggiungere la nostra missione".

Nel novembre 2023, xAI ha rilasciato il suo primo modello di grandi dimensioni, Grok-1.

Questo mese, Musk ha annunciato che Grok-2 sarà lanciato ad agosto e porterà funzionalità IA più avanzate. Allo stesso tempo, ha anche rivelato che Grok-3 utilizzerà 100.000 chip NVIDIA H100 per l'addestramento e che dovrebbe essere rilasciato entro la fine dell'anno. Secondo lui sarà "molto speciale".

Nel maggio di quest'anno, xAI ha annunciato di aver ricevuto 6 miliardi di dollari in finanziamenti di serie B, con importanti investitori tra cui Andreessen Horowitz, Sequoia Capital, ecc. La valutazione pre-money di xAI è di 18 miliardi di dollari, mentre la valutazione post-money dopo questo round di finanziamento raggiungerà i 24 miliardi di dollari.

Sotto la tendenza dell’intelligenza artificiale, la potenza di calcolo è diventata un campo di battaglia per i giganti della tecnologia. Meta ha rivelato nel gennaio di quest'anno che la società prevede di implementare 350.000 GPU NVIDIA H100 entro la fine di quest'anno, espandendo la potenza di calcolo di Meta a un livello equivalente a 600.000 GPU NVIDIA H100 di Microsoft e MicrosoftIA apertaCi sono piani per costruire un nuovo supercomputer chiamato Stargate, che potrebbe costare fino a 100 miliardi di dollari e sarà completamente sviluppato entro il 2030.