notizia

nuvole sotto l'acqua

2024-08-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



Un tempo, il data center sottomarino dell'UDC, proprio come il root server immerso nell'acqua in "The Wandering Earth 2", era un "campo nero" che esisteva solo nei film di fantascienza, nella caccia alle notizie o utilizzato dalla ricerca scientifica all'estero. istituzioni a "mettere in mostra le proprie competenze".

Oggi l’UDC è arrivata da noi e sta accelerando.

Nel luglio di quest'anno, sono andato alla Conferenza mondiale sull'intelligenza artificiale del 2024 e ho visto un computer funzionante immerso nell'acqua presso lo stand "C" di un produttore di computer cinese.

Risulta che il liquido speciale sviluppato da questa azienda è compatibile con i circuiti stampati e non corrode i circuiti. I server raffreddati a liquido costruiti con materiali simili possono resistere all'"acqua", il nemico naturale dei componenti elettronici, rendendo possibili i data center subacquei.

Secondo il personale in loco, l'azienda ha raggiunto una collaborazione con Suzhou e sta installando un data center sottomarino nel lago. In primo luogo, può essere utilizzato come progetto di riferimento per la “produttività di nuova qualità” locale per dimostrare la forza regionale nell’informatica intelligente; in secondo luogo, ha effetti particolarmente positivi in ​​termini di risparmio energetico e riduzione delle emissioni e può fornire potenza di calcolo verde ad alcune aziende locali di intelligenza artificiale; e applicazioni.



Quindi, come possiamo utilizzare la potenza di calcolo subacquea? La risposta è: nuvola.

Ottenere la potenza di calcolo dell’intelligenza artificiale dal cloud è diventata la prima scelta per le start-up dell’intelligenza artificiale con i suoi naturali vantaggi in termini di costi e vantaggi di leasing flessibili.Per costruire un "cloud" più efficiente, più ecologico e a basso costo, anche il data center sottomarino dell'UDC è entrato nella visione dei produttori di cloud computing.

Nel 2014, Microsoft ha proposto per la prima volta il concetto di data center sottomarini, sperando di fornire servizi cloud ad alta velocità alle popolazioni costiere. Nel 2018, Microsoft ha ufficialmente affondato 855 server in mare per confrontarli con il cloud di Azure. il mio paese attualmente dispone anche di data center sottomarini. Il suo core business sono i servizi di potenza di calcolo, nonché la cooperazione diretta su larga scala con produttori di cloud come Tencent e Alibaba per fornire loro una potenza di cloud computing più conveniente.

In questo articolo parleremo di come il cloud sottomarino può “abbassare” il prezzo della potenza di calcolo?



"La fine dell'intelligenza artificiale è l'elettricità." I parametri dei modelli di grandi dimensioni raggiungono trilioni, portando la scala della rete dei centri di calcolo intelligenti ad evolversi fino a 50.000 o addirittura 100.000 carte. Un gruppo di 100.000 carte può consumare il potere di una città. Per supportare il grande modello di intelligenza artificiale, le persone in città non possono accendere l’aria condizionata o guardare la TV. Questo è troppo cyberpunk.

Non solo non vogliamo che ciò accada, ma non lo vogliono nemmeno i fornitori di servizi cloud. Alcuni sondaggi mostrano che le spese per acqua ed elettricità rappresentano oltre il 50% dei costi operativi dei data center. Con l’ulteriore aumento della densità delle GPU nei centri di calcolo intelligenti, il carico energetico aumenterà in modo esponenziale, portando direttamente a un aumento dei costi per i fornitori di servizi cloud.

Per ridurre le bollette elettriche, i fornitori di servizi cloud hanno fatto del loro meglio.

Alcune persone hanno messo i loro data center a Ulanqab e Qinghai, altri li hanno messi in riva al lago (Alibaba Thousand Island Lake Data Center), altri li hanno messi nelle caverne (Tencent, Huawei), e alcuni li hanno spostati direttamente al Circolo Polare Artico (Facebook Node Pole data Center, Google Data Center a Hamina Port, Finlandia) e alcune persone lo hanno posizionato in mare (Google Floating Data Center) e sotto il mare (Microsoft Project Natick Data Center).

Il principio di base rimane lo stesso, ovvero ridurre la dipendenza dal raffreddamento ad aria come condizionatori e altre apparecchiature elettriche per il raffreddamento, e fare maggiore affidamento sull’aria o sull’acqua nell’ambiente naturale per il raffreddamento naturale.



Tra queste soluzioni di raffreddamento naturale,Le nuvole sottomarine sono senza dubbio le più competitive nella “riduzione di potenza”.

Ovviamente, rispetto ai data center terrestri, l'ambiente sottomarino è più complesso, il cablaggio e la manutenzione sono più problematici e i server temono intrinsecamente l'acqua, il che pone maggiori sfide alle prestazioni di impermeabilità e anticorrosione dei data center sottomarini diventare ancora un data center? Una scelta?

Il "primo costo" del data center sottomarino porta l'effetto di raffreddamento naturale al "prezzo minimo".

Essendo la soluzione con l'effetto di raffreddamento più estremo, i data center subacquei utilizzano direttamente le caratteristiche di bassa temperatura dell'acqua per assorbire più calore rispetto ad altre sostanze (come il raffreddamento ad aria e il raffreddamento a vento), riducendo significativamente i requisiti di raffreddamento aggiuntivi.

Allo stesso tempo, poiché l’ambiente sottomarino stesso fornisce un raffreddamento efficace, è possibile ridurre la dipendenza dai sistemi di condizionamento dell’aria e il consumo di energia.

Si può affermare che il data center sottomarino presenta il vantaggio economico più significativo in termini di risparmio energetico e riduzione dei consumi utilizzando il flusso d'acqua per rimuovere il calore.



La costruzione di data center a terra richiede naturalmente spazio terrestre. Oltre ai costi del terreno, le condizioni infrastrutturali in alcune città fredde dell’entroterra e nelle aree con temperature del gas naturale più basse non sono generalmente così sviluppate come nelle aree costiere, come il Circolo Polare Artico, con conseguente. un aumento del TCO complessivo dei costi.

Soprattutto con l'arrivo dei cluster super-10.000 ka, sono stati imposti requisiti estremamente elevati alle strutture di supporto dei data center terrestri/centri di calcolo intelligenti, come l'alimentazione, la struttura portante, la pulizia delle sale computer e la progettazione dei rack per cavi.

Il "Libro bianco sulla nuova tecnologia informatica intelligente per i cluster di schede Super 10.000 (2024)" mostra che a causa della maggiore densità di potenza di calcolo e della maggiore densità di consumo energetico del cluster di schede Super 10.000, anche la quantità di utilizzo dei cavi è aumentata A 1.8 Il cluster di calcolo intelligente di Wanka deve stendere 100.000 cavi, il che comporterà nuove sfide in termini di larghezza e capacità di carico del rack di cablaggio.

Si può dire che il costo complessivo dei data center terrestri/centri di calcolo intelligenti è in aumento.

Al contrario, i costi di costruzione dei data center sottomarini stanno diminuendo e il “divario a forbice” tra i due si sta riducendo sempre di più.



Da un lato, a causa dello spazio più ampio dei laghi e degli oceani, i costruttori hanno una gamma più ampia di siti tra cui scegliere. Rispetto alle aree interne, il costo del terreno dei data center sottomarini è più controllabile.

Inoltre, i data center sottomarini utilizzano spesso cabine dati sigillate, altamente integrate e strettamente accoppiate. Alcune apparecchiature necessarie nei data center terrestri, come torri di raffreddamento e compressori, non sono necessarie sott'acqua. I data warehouse sottomarini adeguatamente progettati hanno tassi di guasto inferiori e costi operativi e di manutenzione inferiori.

Nel settembre 2020, Microsoft ha recuperato un data center che era affondato dal fondo del mare da due anni. Una valutazione ha rilevato che il tasso di guasto del server nel data center sottomarino era inferiore a quello dei data center tradizionali e l'affidabilità era otto volte maggiore superiore rispetto ai server a terra.

Ciò può essere dovuto al fatto che la cabina dati subacquea può essere isolata dall'ambiente mutevole e raramente viene disturbata da incidenti. In breve, le vaste acque rendono più accessibile la potenza di calcolo subacquea, che non deve competere con gli esseri umani per le risorse terrestri.



Immergere il server in acqua per risparmiare acqua. Cosa sta succedendo?

Viene visualizzato un indicatore: WUE (Water Usage Effectiveness), efficienza di utilizzo delle risorse idriche.

Molte persone hanno sentito parlare di PUE, ma pochi hanno sentito parlare di WUE. Se vogliamo promuovere uno sviluppo sostenibile dal punto di vista ambientale e raggiungere la neutralità delle emissioni di carbonio, il WUE deve essere ridotto.

L'obiettivo principale della riduzione del WUE è ridurre le molecole, ovvero la quantità di acqua immessa nel data center, composta principalmente da acqua di produzione come acqua di congelamento, acqua di raffreddamento e acqua di umidificazione.Meno acqua viene consumata nel processo di raffreddamento, maggiore è la WUE

L'immersione del data center in acqua può ridurre l'acqua di produzione? Sì, e anche 0.

Da un lato, il data center sottomarino utilizza direttamente la bassa temperatura dell'acqua circostante per raffreddare i server senza evaporazione e dissipazione del calore, eliminando la necessità di torri di raffreddamento e sistemi di acqua fredda nei data center tradizionali e il consumo di acqua per il raffreddamento è uguale a 0.

Inoltre, l’acqua evaporata durante il processo di raffreddamento del data center sottomarino ritorna direttamente nel corpo idrico, quasi senza perdite per le fonti idriche pubbliche. In alcune aree aride e con scarsità d’acqua, se si utilizzano laghi, fiumi e falde acquifere per raffreddarsi, le risorse idriche evaporate potrebbero non essere in grado di ritornare rapidamente nel sistema idrico locale, con un impatto negativo sull’ambiente idrico locale. .



Nel 2023, l’Arizona negli Stati Uniti ha limitato la costruzione di data center locali a causa delle preoccupazioni sul consumo di acqua. A livello nazionale, anche il distretto di Jining, città di Ulanqab, Mongolia Interna, ha emesso un "Avviso sul divieto alle società di big data nel distretto di Jining di utilizzare le acque sotterranee per il raffreddamento".

Anche se il data center sottomarino genera traspirazione termica, questa verrà rapidamente metabolizzata dai vasti laghi e oceani e non influenzerà il ciclo dell’acqua locale.



Sebbene i data center sottomarini presentino grandi vantaggi in termini di costi, se i servizi cloud di intelligenza artificiale riducono ciecamente i costi, potrebbe verificarsi un incidente di "riduzione dei costi e aumento delle risate".

Ad esempio, i costi di archiviazione ed elaborazione dei data center nell'ovest sono inferiori rispetto a quelli nell'est. Tuttavia, alcune aziende nell'est, considerando i ritardi di trasmissione, i tassi di perdita di pacchetti, l'affidabilità aziendale, ecc., preferirebbero sostenere il 50% in più. costi rispetto a mettere i propri dati in Oriente, in particolare attività come la guida autonoma che richiedono dati elevati in tempo reale. Questo è anche un motivo importante per cui il tasso di disponibilità di molti data center occidentali non è elevato.

Il dilemma della commercializzazione dei data center sottomarini è che, sebbene il prezzo sia basso, non è completamente adatto alle esigenze dell’intelligenza artificiale e l’intelligenza artificiale è considerata dai fornitori di cloud come il nuovo punto di guadagno più critico al momento.



La scalabilità delle risorse sottomarine è limitata.I servizi cloud devono espandere rapidamente le risorse e aumentare la potenza di calcolo e lo spazio di archiviazione in base alle esigenze degli utenti, ed è previsto un certo periodo di tempo affinché le cabine dati subacquee lascino la fabbrica e vengano lanciate in acqua (il sito web ufficiale di Microsoft mostra che Natick impiega 90 giorni dalla fabbrica al funzionamento), e attualmente il centro di calcolo intelligente a terra può essere completato in circa un mese utilizzando la costruzione modulare, in grado di soddisfare la domanda di potenza di calcolo dell’intelligenza artificiale più rapidamente.

Attualmente Microsoft ha anche annunciato di aver sospeso il progetto Natick. Si dice che rafforzerà la ricerca sull'installazione e la manutenzione dei robot in una fase successiva. Sembra che l'ambiente sottomarino lontano dalle attività umane non sia ancora adatto ai grandi distribuzione su vasta scala di data center.

Inoltre, anche l’hosting e la gestione della potenza di calcolo sottomarina pongono sfide ai fornitori di servizi cloud.Al momento, la percentuale di potenza di calcolo subacquea è ancora relativamente piccola. I fornitori di cloud devono integrare e gestire queste risorse eterogenee per garantire che la potenza di calcolo proveniente da diverse fonti possa essere perfettamente integrata per ottenere prestazioni ottimali e consentire agli utenti di utilizzare queste risorse in modo comodo e semplice. Investire molte risorse nella ricerca e nello sviluppo di tecnologie, sistemi e piattaforme.

Alcuni fornitori di cloud di piccole e medie dimensioni che non hanno un accumulo profondo potrebbero trovarsi in una situazione in cui "la salsa di soia (piattaforma di gestione) è più costosa del pollo (potenza di calcolo)" e non possono fare affidamento su vantaggi di costo per migliorare la loro competitività complessiva.



Xu Zhimo scrisse una volta nella poesia "Accidental": "Sono una nuvola nel cielo, proiettata occasionalmente al centro della tua onda". Al momento, i servizi cloud AI e i data center sottomarini potrebbero non essere in grado di stare insieme per sempre l'uno dell'altro è unico.

Nel maggio 2024 è iniziata la seconda fase del progetto Natick, che riflette la continua ricerca di Microsoft di soluzioni per data center cloud. Inoltre, rende il "data center sottomarino" un percorso che la Cina non può restare troppo indietro ed è più adatto all'indipendenza tecnologica ., un biglietto da visita di un paese tecnologicamente potente, pilotato ed esplorato insieme all'Asset Cloud di proprietà statale, all'Enterprise Cloud di proprietà statale centrale e allo Scientific Research Cloud.

I fornitori di servizi cloud con caratteristiche commerciali più forti devono ancora concentrarsi sulla terraferma. Fortunatamente, la Cina ha una topografia ricca e un’infrastruttura completa, quindi c’è un vasto spazio per esplorare “il massimo rapporto costo-efficacia”.

Da questo punto di vista, la potenza di calcolo non è mai stata una questione di una sola azienda informatica o di un’industria, ma di un progetto di sistema con partecipazione globale. L’era in cui la potenza di calcolo è potere nazionale è appena iniziata.