notizia

musk insegue trilioni in openai

2024-09-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

openai è molto forte se vuoi dare un numero a questa forza, allora questa cifra potrebbe essere di 150 miliardi di dollari usa.

l'11 settembre, ora locale, bloomberg ha riferito che openai stava finanziando per una valutazione di 150 miliardi di dollari, raccogliendo 6,5 miliardi di dollari dagli investitori e stava anche negoziando per prendere in prestito 5 miliardi di dollari dalle banche sotto forma di prestito rotativo.

la notizia che openai avrebbe raccolto fondi ha cominciato a diffondersi alla fine di agosto. allora i media hanno rivelato che "il suo valore era di oltre 100 miliardi di dollari e avrebbe raccolto diversi miliardi di dollari". mondo. dopotutto, openai è stata valutata 86 miliardi di dollari alla fine dello scorso anno, quando i dipendenti hanno venduto le loro azioni esistenti.

secondo notizie precedenti, oltre a microsoft, i giganti che partecipano all’attuale round di finanziamento di openai includono apple e nvidia. l’impennata delle valutazioni e le scommesse dei giganti dimostrano l’attrattiva di openai.

l’altro lato della storia è il sorprendente tasso di consumo di denaro di openai e la sua situazione di problemi interni ed esterni.

l'ultimo importante finanziamento di openai è avvenuto nel gennaio 2023, quando microsoft ha investito circa 10 miliardi di dollari. in altre parole, openai ha bruciato decine di miliardi di dollari in meno di due anni. secondo the information, quest’anno le perdite di openai potrebbero raggiungere i 5 miliardi di dollari. all’epoca i media avevano previsto che openai avrebbe presto avuto bisogno di finanziamenti, il che purtroppo era vero.

a causa di preoccupazioni interne, openai non solo ha rallentato i suoi aggiornamenti, ma ha anche sperimentato frequenti partenze dei dirigenti.

nel 2023, openai lancerà lo store gpt e rilascerà gpt-4, e sarà molto impegnato. è passata più della metà di quest'anno e i nuovi prodotti di openai sono per lo più interessanti ma non tangibili. sora è stato annunciato ufficialmente all'inizio di quest'anno, ma non è stato ancora testato su larga scala il nuovo modello a lungo vociferato "strawberry" è ancora più misterioso.

allo stesso tempo, solo 2 degli 11 cofondatori lavorano ancora presso openai. recentemente, alexis conneau, la figura chiave dietro gpt-4o e gpt-5, ha annunciato la sua partenza da openai.

a causa dell’aggressione straniera, giganti come google e microsoft hanno acquisito sotto mentite spoglie concorrenti di openai, e altre startup di intelligenza artificiale nella silicon valley, tra cui inflection ai e character ai, hanno già di fatto “proprietari”.

ciò che è ancora più problematico è che il vecchio nemico elon musk è passato da uno scontro verbale con openai a uno scontro ravvicinato con armi vere.

xai, fondata da musk, è stata fondata solo da 15 mesi ed è diventata uno dei rivali più potenti di openai. il finanziamento di serie b si è concluso a maggio di quest'anno. non solo xai ha ricevuto un singolo finanziamento di 6 miliardi di dollari, secondo solo a openai, ma la sua valutazione ha anche raggiunto i 24 miliardi di dollari, rendendola la seconda startup ai con il valore più alto dopo openai.

in termini di prodotti, il modello grok di xai ha attraversato molte iterazioni e le prestazioni attuali di grok 2 hanno seguito da vicino gpt-4.

proprio mentre la guerra apparente era in fase di stallo, elon musk ha annunciato il 3 settembre che colossus, un cluster di supercalcolo contenente 100.000 nvidia h100, è stato ufficialmente lanciato, classificandosi al primo posto al mondo in termini di dimensioni.

l'espansione della potenza di calcolo persegue obiettivi ambiziosi. grok 3 è già in arrivo e musk ha minacciato di sviluppare l'intelligenza artificiale più potente del mondo entro la fine di quest'anno.

openai, che da molto tempo lotta con la potenza di calcolo, ha lanciato diversi nuovi piani per data center con microsoft, espandendo i supercomputer microsoft esistenti o costruendo nuove strutture. è stato persino rivelato che il "progetto stargate" ha milioni di chip nvidia.

tuttavia, la differenza tra preparazione e "lancio ufficiale" è evidente. nella competizione ai in cui il tempo stringe, il tempo non aspetta nessuno. secondo the information, altman ha espresso preoccupazione ai dirigenti microsoft sul fatto che la potenza di calcolo di xai superi quella di openai.

la guerra per la potenza di calcolo tra musk e ultraman è iniziata.

uno è musk, che dice "non sposerò una famiglia benestante, anch'io sono una famiglia benestante" e sta facendo grandi progressi con xai. uno è openai, che è sostenuto da giganti ed è ancora il punto di riferimento nel settore dell’intelligenza artificiale. la battaglia per la potenza di calcolo è iniziata e la sfida non è solo se hai soldi o meno.

musk e altman sono entrambi co-fondatori di openai. i due si sono trovati d'accordo quando google utilizzava deepmind per dominare il campo dell'intelligenza artificiale, ma si sono separati poco prima che l'organizzazione no-profit openai si spostasse verso una commercializzazione limitata.

chatgpt è diventato un successo immediato due anni fa musk ha lanciato un feroce attacco contro openai e persino contro lo stesso ultraman, affermando che openai "ha violato la sua intenzione originale" ed è diventato un vassallo di microsoft. quest’ultimo è il più grande finanziatore di openai, investendo decine di miliardi di dollari.

la performance di ultraman è mediocre per la maggior parte del tempo. ma dalle poche parole di altman non è difficile vedere le sue emozioni contrastanti di disgusto e incapacità di disprezzare musk. altman una volta disse che musk "è un idiota". sei mesi dopo, altman disse qualcosa di buono su musk: "elon è sicuramente una calamita per il talento ed è al centro dell'attenzione, e ha dei veri superpoteri".

a questo punto, l’xai di musk è stato creato e altman è ben consapevole delle capacità di questo pazzo della silicon valley.

quando è stato annunciato ufficialmente nel luglio 2023, si riteneva che xai prendesse di mira openai. anche musk non è timido riguardo a questo.

ma a quel tempo, il mondo esterno aveva per lo più un atteggiamento di attesa nei confronti di xai. dopotutto, è iniziato tardi ed è di piccola scala. oltre a openai e microsoft, ci sono anche giganti come google e start-up stellari come anthropic. non solo xai conta solo 11 membri iniziali, ma la sua filosofia esclude naturalmente anche grandi investimenti da parte dei giganti della tecnologia. alcuni media famosi, tra cui "wired", hanno fatto satira sulla sfida di xai a openai definendola più una "illusione" di musk.

tuttavia, la velocità di sviluppo di xai supera l’immaginazione di tutti.questo è esattamente ciò che altman ha detto di musk: i superpoteri.

non è difficile scoprire, analizzando la sequenza temporale, che i rilasci e le iterazioni dei prodotti xai sono molto rapidi. fondata 13 mesi fa, ha rilasciato il primo grande modello grok, l'iterativo grok 1.5, il multimodale grok 1.5v, grok 2 e il piccolo modello grok 2mini.

musk, che è esperto di marketing, ha dato a grok una personalità distinta. quando gli utenti parlano con grok, scopriranno che questo robot è disinvolto, sarcastico, ama fare scherzi e sfida la "correttezza politica".

tuttavia, sotto la patina di battute, il modello grok ha sempre avuto una salda presa su openai.

prendiamo come esempio l’ultima situazione di battaglia. xai ha rilasciato due modelli, grok 2 e grok 2 mini, ad agosto. le prestazioni in termini di codifica, matematica e ragionamento sono state notevolmente migliorate rispetto alla generazione precedente ed è stata aggiunta la funzione del diagramma di vincent. a quel tempo, nell'elenco generale di lmsys, la prima versione di grok 2, sus-column-r, si classificava al terzo posto. potrebbe competere con gpt-4o in alto e superare direttamente claude 3.5 sonnet di anthropic in fondo. nell'uso specifico, grok 2 mantiene lo stile di pittura "irregolare". la funzione di generazione di immagini appena lanciata consente all'intelligenza artificiale di "disegnare" immagini di altri famosi modelli di grandi dimensioni che camminano in giro, come musk con in mano una pistola, un personaggio animato disney assassino scene, ecc., una volta accendevano l'entusiasmo dei netizen per la vita.

ciò che è ancora più inaspettato è che xai ha completato il finanziamento di serie b nel maggio di quest’anno, per un importo totale di finanziamento di 6 miliardi di dollari.nel campo dei modelli di grandi dimensioni si tratta del finanziamento unico secondo solo a openai. l’importo totale del finanziamento di openai è di 14 miliardi di dollari, il più grande dei quali è avvenuto nel gennaio 2023, con un massiccio investimento di 10 miliardi di dollari da parte di microsoft.

per fare un confronto, prima del finanziamento di xai, la singola dimensione di finanziamento seconda solo a openai era anthropic, che ha ricevuto 4 miliardi di dollari di finanziamenti a settembre 2023 e 2 miliardi di dollari di finanziamenti a ottobre, seguita da inflection ai e il suo importo di finanziamento unico in giugno 2023 ha raggiunto 1,3 miliardi di dollari.

tra questi, xai ha lanciato l'ultimo, un anno dopo la sua fondazione, ma non solo ha ideato un modello di grandi dimensioni che coglie saldamente la forza del prodotto openai, ma lo ha anche seguito da vicino in termini di scala di finanziamento.

oggi xai è diventato un concorrente che openai non può ignorare, anche uno dei suoi concorrenti più potenti.

che si tratti di una competizione in termini di prodotto o di scala di finanziamento, si tratta di una battaglia aperta tra i due. sott'acqua, anche la battaglia nascosta per la potenza di calcolo tra xai e openai è in corso ferocemente.

proprio il 3 settembre musk annunciò su x che colossus (giant) era stato ufficialmente lanciato.

colossus è il cluster di formazione super ai di xai, situato nell'area di memphis, tennessee, e alimentato da 100.000 gpu nvidia h100.

inoltre, musk ha anche promesso che nei prossimi mesi colossus continuerà ad aumentare i propri investimenti, a raddoppiare il numero di gpu e ad aumentare il numero di gpu nell'intero cluster a 200.000, comprese 50.000 nvidia h200.

qual è il concetto di cluster composto da 100.000 nvidia h100?

in poche parole, è attualmente il numero 1 al mondo. per spiegare ulteriormente, dal momento che le grandi aziende stanno accumulando gpu, è difficile vedere dati pubblici sul numero effettivo di gpu attive. tuttavia, nel giugno dello scorso anno, inflection ai, che ha raccolto 1,3 miliardi di dollari, ha fatto una dichiarazione coraggiosa che avrebbe costruito il "supercomputer più grande del mondo" e sarebbe composto da (solo) 22.000 nvidia h100. nel marzo di quest'anno, meta ha annunciato due nuovi cluster di data center, ciascuno contenente 24.000 chip h100. diverse aziende stanno progettando di costruire un supercomputer contenente 100.000 chip nvidia o più, ma solo musk si è fatto avanti e ha affermato che è stato costruito.

la cosa sorprendente del lancio ufficiale di colossus non è solo la sua portata, ma anche il tempo impiegato per implementarlo. secondo le parole di musk, al team ci sono voluti solo 122 giorni, o 4 mesi, per costruire colossus. in generale, ci vorrebbe un anno per costruire un cluster di formazione sull’intelligenza artificiale di queste dimensioni.

musk ha rivelato per la prima volta che xai stava costruendo una "super fabbrica di potenza di calcolo" nel maggio di quest'anno. a luglio, musk annunciò che alcune società, tra cui xai, x e nvidia, avevano iniziato i test. a quel tempo, il cluster era chiamato "memphis supercluster".

"gioca per vincere, o non giocare affatto."un messaggio x di musk a giugno è la migliore spiegazione delle sue ambizioni, e il suo piano più specifico è quello di addestrare "l'intelligenza artificiale più potente del mondo sotto ogni aspetto" entro dicembre di quest'anno.

secondo lo stesso musk, per addestrare grok 2 sono necessari 20.000 chip nvidia h100, mentre per addestrare grok 3 potrebbero essere necessari 100.000 chip h100.

dobbiamo sapere che le capacità di grok 2 sono vicine a quelle di gpt-4. non è difficile vedere che musk vuole lavorare sodo questa volta per ottenere miracoli. è anche evidente quale sia l’obiettivo chiave per superare l’ia “più potente”.

tali notizie rappresentano naturalmente una sorta di pressione per openai.

secondo un rapporto di the information, persone a conoscenza della questione hanno rivelato che altman ha espresso preoccupazione ai dirigenti microsoft riguardo al fatto che la potenza di calcolo di xai supererà presto quella di openai.

ultraman aveva molte ragioni per preoccuparsi.

attualmente, le grandi iterazioni del modello openai sono limitate alla serie “4”. secondo le classifiche globali aggiornate da lmsys il 4 settembre, l'ultima versione di chatgpt-4o di openai è stata aggiornata l'8 agosto di quest'anno e attualmente è al primo posto, ma in termini di punteggio complessivo non è buona quanto gemini-1.5-pro. , grok-2 apre un grande divario. gpt-4o, aggiornato il 13 maggio di quest'anno, è al quinto posto.

si può dire che le persone stanno aspettando gpt-5 da quando openai ha rilasciato gpt-4 nel marzo dello scorso anno. il consenso iniziale era che gpt-5 sarebbe stato lanciato entro la fine del 2023 o nell’estate del 2024, ma pochi mesi fa mira murati, chief technology officer di openai, aveva dichiarato pubblicamente che il rilascio di gpt-5 avrebbe potuto essere ritardato fine del 2025 o inizio 2026.

il motivo del ritardo di gpt-5 sono probabilmente "due carenze", una potenza di calcolo insufficiente e dati insufficienti. mulati ha rivelato che i parametri di gpt-5 raggiungeranno i 52mila miliardi, un aumento significativo rispetto ai 2mila miliardi di gpt-4.

non solo lo sviluppo della prossima generazione di gpt richiede un supporto di potenza di calcolo sufficiente. nel marzo di quest'anno, l'organizzazione di ricerche di mercato facrorial funds ha pubblicato un rapporto che analizza le risorse hardware richieste da openai per implementare sora, ritenendo che sora dovrebbe richiedere 720.000 chip nvidia h100 per supportare le sue esigenze informatiche durante il periodo di punta. questo rapporto può anche spiegare perché sora non è stato rilasciato al pubblico.

l'attuale potenza di calcolo di openai proviene principalmente da microsoft o beneficia degli investimenti di microsoft. nel 2020, microsoft ha costruito un supercomputer contenente 10.000 schede grafiche per supportare il lavoro di openai. all'epoca era uno dei cinque supercomputer più veloci al mondo.

nel marzo dello scorso anno, microsoft ha annunciato nuovi progressi nella sua collaborazione con l’infrastruttura openai. il supercomputer originale da 10.000 cpu è stato aggiornato per includere decine di migliaia di chip a100 e il costo del sistema "potrebbe superare" diverse centinaia di milioni di dollari.

la potenza di calcolo è il punto critico di cui ultraman parla di più.già nel maggio 2023, altman sedeva nell’aula delle udienze del congresso degli stati uniti e esprimeva preoccupazione per i colli di bottiglia della potenza di calcolo.

quest'anno, l'affermazione di altman quando si parla di potenza di calcolo è stata più grandiosa e ferma. credeva che le due “valute” del futuro saranno la potenza di calcolo e l'energia: “questa (la potenza di calcolo) potrebbe essere il bene più prezioso al mondo. dovremmo fare investimenti significativi per fare più calcoli."

a marzo, ultraman ha anche inviato un messaggio x lamentandosi del fatto che non c'erano abbastanza gpu nvidia per supportare lo sviluppo dell'intelligenza artificiale. è stato riferito che in seguito openai ha ottenuto ulteriori diritti di utilizzo del server da microsoft. entro la metà del 2025 oracle e microsoft forniranno a openai uno dei cluster di server nvidia più potenti al mondo, con un canone annuo di circa 2,5 miliardi di dollari .

secondo un rapporto di the information, microsoft sta pianificando ulteriori aggiornamenti e prevede di costruire più infrastrutture ia entro il 2030.

il piano di potenza di calcolo di microsoft e openai può essere suddiviso in cinque fasi.i due partiti sono attualmente nella terza fase del piano. la quarta fase riguarda il supercomputer che microsoft sta costruendo per openai, la cui messa in funzione è prevista intorno al 2026. l'autorità per lo sviluppo economico del wisconsin ha affermato che microsoft ha avviato la costruzione per espandere un data center da 1 miliardo di dollari lì, e persone che hanno familiarità con la questione hanno rivelato che il costo finale del data center potrebbe raggiungere i 10 miliardi di dollari.

la quinta fase è il sensazionale progetto "stargate". il piano è stato denunciato dai media nel marzo di quest'anno: microsoft e openai progettano di costruire un supercomputer con "milioni" di chip e il costo del progetto potrebbe raggiungere i 100 miliardi di dollari.

oltre a cercare di ottenere più risorse informatiche dal mondo esterno, ultraman si è anche impegnato personalmente in battaglia per cercare di far avanzare le sue ambizioni in materia di chip.ultraman è ansioso di avere chip sviluppati autonomamente per ridurre i costi principali. attualmente, i chip ai di fascia alta di nvidia non sono solo costosi, ma anche a corto di risorse.

all'inizio di quest'anno è arrivata la notizia che ultraman voleva costruire un impero da 7 trilioni di chip, ma questo era troppo ambizioso e inverosimile. secondo vari rapporti, ultraman è stato molto attivo sulle questioni relative ai chip nell'ultimo anno e negozia attivamente con tutte le parti.

da un lato, si tratta di ricerca e sviluppo di chip. a luglio, è stato riferito che openai stava creando un team interno di chip, guidato da richard ho, ex presidente senior dell'ingegneria tpu di google. broadcom, che ha collaborato con google per produrre tpu, ha già comunicato con il team di chip openai. inoltre, anche i concorrenti di broadcom stanno promuovendo i propri servizi su openai.

d'altra parte c'è la produzione di patatine. si dice che altman stia negoziando con i dirigenti dei principali produttori e fornitori di chip, tra cui tsmc, per aumentare la capacità produttiva e produrre più chip nvidia, o anche nuovi chip openai. inoltre, ultraman potrebbe essere stato in contatto con i produttori di chip di memoria samsung e sk hynix all'inizio di quest'anno.

e il primo passo di ultraman sembra arrivare presto. recentemente, il taiwan economic daily ha riferito che openai ha ordinato l'utilizzo del chip a16 di tsmc a sora.il chip a16 è il nodo di processo più avanzato che tsmc ha rivelato finora. è anche il primo passo per tsmc verso l'ingresso nel sistema angstrom. si prevede che sarà prodotto in serie nella seconda metà del 2026. oltre a openai, apple è anche uno dei primi clienti dell'a16.

la competizione sulla potenza di calcolo tra musk e ultraman è già in pieno svolgimento, ma l'espansione della potenza di calcolo richiede più del semplice denaro. ognuno di loro ha la propria "maledizione del vantaggio".

musk ha in mano tante aziende che sono il suo vantaggio, tra cui quelle legate a xai sono principalmente x e tesla. x può fornire dati e utenti a xai, mentre tesla è più "utile". non solo invia almeno 11 membri a xai, ma può anche fornire direttamente gpu per xai. inoltre, musk ha affermato che la grande quantità di dati visivi raccolti da tesla può essere utilizzata da xai per addestrare modelli di grandi dimensioni. nel luglio di quest’anno, musk ha persino pubblicato un sondaggio su x, chiedendo ai fan se approvassero l’investimento di 5 miliardi di dollari da parte di tesla in xai.

ma "mano sinistra e mano destra" porta comodità a musk, ma porta anche guai.

tesla non è al suo apice. al contrario, le vendite di veicoli elettrici di tesla sono deboli e il suo nuovo modello di berlina di punta è stato ritardato. gli investitori di tesla hanno reagito con forza alla “trasfusione di sangue” di tesla per xai, con una continua opposizione e innescando persino molteplici cause legali.

la controversia ha costretto musk, che è sempre stato un tipo duro, a farsi avanti per compiacere gli azionisti di tesla. dopo che si è diffusa la notizia che musk aveva dato a nvidia la priorità nella spedizione dei chip a xai, ha spiegato che tesla non aveva un posto dove avviare i chip e ha sottolineato che il progetto di espansione di gigatexas nel sud di tesla sarebbe stato completato. ha anche rivelato che tesla avrebbe speso 3 miliardi di dollari anno. 4 miliardi di dollari per l'acquisto di chip nvidia.

d'altra parte, un altro grande vantaggio che musk ha portato xai a prosperare è "l'indipendenza". non "collaborare" con i giganti della tecnologia è il modo in cui musk e xai occupano le alte sfere dell'opinione pubblica. lo aiuta anche ad attrarre investimenti e diventare una forza per controllare ed equilibrare i giganti.

ma questo significa anche che musk non avrà “finanziatori” in società start-up come openai, anthropic e inflection, a tutte cui sono stati iniettati ingenti somme di denaro contemporaneamente dai giganti. la strada verso l’espansione della potenza di calcolo è lastricata d’oro e il costo di soli 100.000 nvidia h100 è di circa 2,5 miliardi di dollari (a meno che nvidia non offra sconti sui volumi).

uno dei vantaggi di openai è che è supportato da microsoft, che è stato il suo sostenitore più importante nei due anni trascorsi da quando l'azienda è salita alla ribalta con chatgpt.

ma c’è un sottile imbarazzo nello stretto rapporto tra openai e microsoft, che è già un segreto di pulcinella.

la contraddizione più diretta è che openai e microsoft sono entrambi partner e competono tra loro. in altre parole, i prodotti microsoft come copilot e new bing, profondamente integrati nel modello openai, devono competere con openai stessa per attirare i clienti. in precedenza, altman era volato a san francisco, new york, londra e in altri luoghi per tenere conferenze personalmente a centinaia di dirigenti di aziende fortune 500 per promuovere i prodotti e i servizi di livello aziendale di openai.

proprio il 5 settembre openai ha anche annunciato in grande stile che la versione aziendale del servizio in abbonamento chatgpt, lanciata un anno fa, conta ora più di 1 milione di utenti paganti.

microsoft ha già apportato modifiche a livello strategico. in precedenza, microsoft aveva acquisito inflection ai sotto mentite spoglie, assorbito quasi tutti i suoi talenti e creato un team interno di intelligenza artificiale "microsoft ai" per essere in linea con gli altri giganti. a maggio, the information ha riferito che microsoft stava per lanciare un nuovo modello di intelligenza artificiale, nome in codice interno mai-1, con 50 miliardi di parametri.

lasciatemi chiedere, se microsoft ha il suo modello di grandi dimensioni "naturale" e le sue prestazioni sono elevate, quale motivo c'è per non sostituire openai?

inoltre, la speciale struttura di governance di openai ha piazzato un'enorme bomba a orologeria nella cooperazione tra le due parti: secondo l'accordo, l'autorizzazione di openai a microsoft cesserà con l'avvento di agi.

si sforza di fornire denaro e potenza di calcolo per promuovere openai per raggiungere l'agi, ma promuove anche se stessa per perdere openai. questo è un paradosso affrontato da microsoft.

i cluster di supercalcolo che microsoft e openai stanno già costruendo o pianificando di costruire comportano enormi investimenti finanziari. prendiamo come esempio il "progetto stargate". il costo del progetto è di 100 miliardi di dollari. anche per microsoft si tratta di una cifra insostenibile. le spese in conto capitale di microsoft per l’anno fiscale 2024 (che termina il 30 giugno) ammontano a 55,7 miliardi di dollari.

sulla strada dell'espansione della potenza di calcolo, openai dovrà "bloccare" il suo rapporto con microsoft, oppure dovrà trovare una via d'uscita il più presto possibile. altrimenti, ciò che attende openai sarà una situazione di ". successo e fallimento”.

infine, nella competizione sulla potenza di calcolo tra musk e ultraman, c’è un altro ostacolo chiamato “energia”.

le informazioni stimano che le gpu richiedano più potenza rispetto ai chip tradizionali, con un cluster di 100.000 chip che potrebbero richiedere 100 megawatt di potenza dedicata. si tratta di 10 volte l'energia consumata dai data center tradizionali e può alimentare da 70.000 a 100.000 case.

l'autenticità del gigantesco ammasso colossus di musk "già online" è stata quindi messa in dubbio. la società elettrica ha affermato che xai sarà in grado di ottenere circa 50 megawatt di elettricità entro agosto. una centrale in costruzione potrà fornire altri 150 megawatt di elettricità, ma sarà realizzata solo nel 2025.

si è anche ipotizzato che musk stia abbandonando la compagnia elettrica e cercando di alimentare il cluster con generatori a combustibili fossili, provocando una denuncia da parte di un gruppo ambientalista di memphis, nel tennessee.

questo non è solo un problema per xai e openai. secondo le statistiche di the infomation, attualmente ci sono 17 centri di supercalcolo in uso o in costruzione in 7 stati degli stati uniti (esclusi progetti come il "progetto stargate" di dubbia realizzazione), se fossero tutti messi in funzione, gli stati uniti. il dipartimento dell'energia lo farà. se è troppa, potrebbe esserci energia insufficiente.

sembra che sia stato proprio ieri che musk e altman hanno litigato verbalmente, ma ora sono caduti in un cauto combattimento corpo a corpo. l’espansione della potenza di calcolo spesso si svolge in una grande narrazione, con miliardi o addirittura decine di miliardi di dollari di investimenti che erigono muri di decine di migliaia o addirittura centinaia di migliaia di chip. ma lungo la strada voi due avrete ancora molti ostacoli da superare.