notizia

natura: esplorazione della giornata dedicata al supercalcolo più veloce del mondo

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



  nuovo rapporto sulla saggezza

editore: qiao yang
[introduzione alla nuova saggezza]nelle montagne del tennessee orientale, un supercomputer da record chiamato frontier offre agli scienziati opportunità senza precedenti di studiare qualsiasi cosa, dagli atomi alle galassie.

la costruzione di supercalcoli è in pieno svolgimento e sia i giganti sovrani dell’intelligenza artificiale che della tecnologia forniscono costantemente a nvidia trasfusioni di sangue e costruiscono data center.

prima di questo, a dicembre 2023, il supercomputer più veloce del mondo è frontier, noto anche come olcf-5, situato a oak ridge, tennessee, usa.

frontier è dotato di cpu e gpu amd, con 50.000 processori (di cui 38.000 gpu), e una velocità di elaborazione di 1.102 exaflops, ovvero 1.102 exaflops al secondo (1018) operazioni in virgola mobile.

questa velocità è addirittura superiore a quella di 100.000 laptop che funzionano contemporaneamente e, quando ha debuttato nel 2022, frontier ha anche superato per la prima volta la soglia record della velocità di elaborazione exascale.

il supercomputer di frontiera copre un'area più grande di due campi da basket

la ragione per perseguire una velocità e una scala così eccellenti è soddisfare le esigenze dei calcoli di simulazione nella ricerca scientifica all’avanguardia in vari campi.

frontier è molto bravo nel creare simulazioni che catturano sia modelli su larga scala che dettagli su piccola scala, come il modo in cui minuscole goccioline di nuvole influenzano il tasso di riscaldamento climatico.

oggi, i ricercatori accedono a frontier da tutto il mondo per creare modelli all'avanguardia di tutto, dalle particelle subatomiche alle galassie, inclusa la simulazione di proteine ​​per la scoperta e lo sviluppo di farmaci, la simulazione di turbolenze per migliorare i motori degli aerei e la formazione di llm open source che competono con google e google. openai.

tuttavia, un giorno di aprile di quest’anno, è successo qualcosa di inaspettato alle operazioni di frontier.

bronson messer, direttore scientifico dell'oak ridge national laboratory nel tennessee, dove si trova frontier, ha affermato che per stare al passo con le richieste degli scienziati di tutto il mondo, il consumo energetico di frontier è aumentato notevolmente, raggiungendo un picco di circa 27 megawatt, abbastanza per alimentare circa 10.000 case.

ciò comporta anche sfide per il sistema di raffreddamento del supercomputer. nelle parole di messer, “la macchina funziona come un cane scottato”.

secondo le statistiche del 2023, frontier ha un totale di 1.744 utenti situati in 18 paesi e i calcoli e i dati forniti supportano almeno 500 articoli pubblicati pubblicamente.

esplorando l’interno del “cervello” di frontier

simile alla scena che abbiamo immaginato, la sala computer in cui si trova frontier è simile a un magazzino e il ronzio elettronico generato durante il funzionamento è costante e delicato.

nella sala computer sono presenti 74 rack e ciascun nodo contiene 4 gpu e 1 cpu. il motivo di una velocità di elaborazione così elevata è dovuto all'enorme numero di gpu.

messer, il direttore del laboratorio, ha descritto: "queste gpu sono molto veloci, ma sono anche estremamente stupide. possono fare la stessa cosa ancora e ancora".

questa capacità di gestire più operazioni contemporaneamente è molto utile per lavorare velocemente sui supercomputer, ma a parte questo non c'è molto altro.

dietro questa "estrema stupidità" c'è una sorta di versatilità gli scienziati in vari campi possono eseguire gpu tramite codice personalizzato.

frontier opera ininterrottamente giorno e notte, così come il team di ingegneri responsabile del funzionamento e della manutenzione.

il team di ingegneri responsabile della costruzione di questo supercomputer proviene da hewlett-packard. uno dei tecnici, corey edmonds, ha affermato di avere un team di ingegneri che monitorerà continuamente frontier per determinare se ci sono segni di guasto.

ad esempio, uno degli addetti al turno di notte, conner cunningham, lavora dalle 19:00 alle 7:00. è responsabile dell'utilizzo di più di dieci monitor per prestare attenzione alla sicurezza della rete e degli edifici e monitorare il clima locale per garantire la massima sicurezza. normale funzionamento di frontier.

in effetti, quasi tutte le sere sono la "vigilia di natale", cunningham di solito ha solo bisogno di fare qualche ispezione e può trascorrere il resto del tempo a studiare alla sua postazione di lavoro.

"questo lavoro è un po' come essere un pompiere. se succede qualcosa, qualcuno deve essere in servizio per monitorarlo."

alimentare la grande scienza

sebbene frontier operi giorno e notte, non è facile per i ricercatori richiedere opportunità di utilizzo.

il direttore scientifico messer e altri tre colleghi sono responsabili della valutazione e dell'approvazione delle proposte di utilizzo. lo scorso anno hanno approvato un totale di 131 progetti, con una percentuale di successo di circa 1/4.

per essere approvati, i candidati devono dimostrare che i loro progetti utilizzeranno l’intero sistema di supercalcolo, tipicamente utilizzato per modellare varie scale temporali e spaziali.

frontier ha un totale di circa 65 milioni di ore-nodo disponibili ogni anno, e la dotazione più comune ottenuta dai ricercatori è di 500.000 ore-nodo, che equivalgono a tre giorni di funzionamento continuo dell'intero sistema.

messer ha affermato che i ricercatori ottengono circa dieci volte più risorse di calcolo a frontier che in altri data center.

frontier ha oltre 50.000 processori ed è raffreddato a liquido

con velocità di elaborazione più elevate e maggiori risorse di elaborazione, i ricercatori possono realizzare una "grande scienza" più ambiziosa.

ad esempio, simulando accuratamente processi biologici con precisione a livello atomico, come il modo in cui le proteine ​​o gli acidi nucleici in soluzione interagiscono con altre parti della cellula.

nel maggio di quest'anno, alcuni studiosi hanno utilizzato frontier per simulare una goccia d'acqua a forma di cubo contenente più di 155 miliardi di molecole d'acqua, che è circa un decimo della larghezza di un capello umano. si tratta di una delle più grandi simulazioni a livello atomico mai realizzate storia.

a breve termine, i ricercatori sperano di simulare gli organelli per informare il laboratorio; sperano anche di combinare queste simulazioni ad alta risoluzione con l’imaging ultraveloce dei laser a elettroni liberi a raggi x per accelerare la scoperta.

questi lavori aprono la strada a un obiettivo futuro più ampio: modellare l’intera cellula partendo dagli atomi.

con frontier, anche i modelli climatici diventano più accurati.

l’anno scorso, lo scienziato del clima matt norman e altri ricercatori hanno utilizzato frontier per eseguire un modello climatico globale con una risoluzione di 3,25 chilometri, che incorporava anche movimenti complessi delle nuvole a risoluzioni più fini.

per creare modelli predittivi decennali, la potenza di calcolo di frontier è necessaria e richiede la potenza di calcolo dell’intero sistema.

affinché un modello sia adatto alle previsioni meteorologiche e climatiche, è necessario almeno un anno di simulazioni giornaliere.

frontier può simulare 1,26 anni al giorno, una velocità che consente ai ricercatori di creare previsioni a 50 anni più accurate rispetto a prima.

se viene eseguito su un altro computer, la velocità di calcolo sarà molto più lenta per ottenere la stessa risoluzione e tenere conto dell'influenza del cloud.

su una scala cosmica più ampia, frontier può anche portare una risoluzione più elevata.

anche evan schneider, astrofisico dell'università di pittsburgh, sta usando frontier per studiare come le galassie delle dimensioni della via lattea si evolvono mentre invecchiano.

il modello di galassia che hanno creato si estende su quattro ordini di grandezza, con una dimensione massima di circa 100.000 anni luce. prima di frontier, le strutture più grandi simulate con risoluzioni simili erano galassie nane, con una massa di circa un cinquantesimo.

cosa significa frontiera per l’ia

in quanto ex numero 1 al mondo, lo status di frontier è ancora più unico perché questo supercomputer è uno dei pochi pezzi di attrezzatura che appartiene al settore pubblico, piuttosto che essere dominato dall'industria.

poiché la ricerca nel campo dell’intelligenza artificiale richiede spesso un’enorme potenza di calcolo, esiste un enorme divario tra i risultati del mondo accademico e dell’industria.

secondo le statistiche di alcuni studiosi, nel 2021, il 96% dei più grandi modelli di ia proverrà dall’industria. in media, i modelli industriali sono quasi 30 volte più grandi dei modelli accademici.

la differenza è evidente anche nell’importo investito. le agenzie pubbliche statunitensi non legate alla difesa hanno fornito 1,5 miliardi di dollari nel 2021 per sostenere la ricerca sull’intelligenza artificiale. nello stesso anno, la spesa globale dell’industria ha superato i 340 miliardi di dollari.

dal rilascio di llm commerciali come gpt-4 e gemini ultra, il precedente divario tra i due è stato ulteriormente ampliato. questo divario di investimenti ha portato a una chiara asimmetria nelle risorse informatiche disponibili nell’industria e nel mondo accademico.

poiché lo sviluppo dei modelli nel settore è a scopo di lucro, molte questioni importanti che devono essere affrontate nello sviluppo tecnologico vengono spesso ignorate, come la ricerca di base, le esigenze dei gruppi a basso reddito, la valutazione dei rischi del modello, la correzione delle distorsioni del modello, ecc.

se il mondo accademico vuole assumersi queste responsabilità, ha bisogno di una potenza di calcolo in grado di eguagliare le dimensioni del settore, ed è qui che entra in gioco frontier.

l'esempio più tipico è che i llm formati dalle aziende tecnologiche spesso mantengono vari gradi di natura proprietaria, ma i ricercatori spesso rendono i modelli che sviluppano gratuiti affinché chiunque possa utilizzarli.

ciò aiuterà i ricercatori universitari a competere con le aziende, ha affermato abhinav bhatele, scienziato informatico presso l'università del maryland, college park. "l'unico modo per le persone nel mondo accademico di addestrare modelli di dimensioni simili è avere accesso a risorse come frontier".

bhatele ritiene che strutture come frontier svolgano questo ruolo vitale nel campo dell’intelligenza artificiale, consentendo a più persone di partecipare allo sviluppo tecnologico e condividere i risultati.

tuttavia, vale la pena notare che la competizione per le infrastrutture di potenza di calcolo tra paesi, aziende tecnologiche e organizzazioni no-profit è ancora in corso, e anche un’azienda potente come frontier alla fine cadrà.

l'oak ridge laboratory sta già pianificando un successore di frontier, chiamato discovery, che aumenterà la velocità di elaborazione da 3 a 5 volte.

per riferimento, frontier è 35 volte più veloce di tianhe-2a, il supercomputer più veloce del 2014, e 33.000 volte più veloce di earth simulator, il supercomputer più veloce del 2004.

i ricercatori desiderano ancora velocità più elevate, ma gli ingegneri devono affrontare sfide continue, una delle quali è l’energia.

l'efficienza energetica di frontier è più di quattro volte superiore a quella di summit, in gran parte grazie alle diverse soluzioni di raffreddamento.

frontier utilizza acqua a temperatura ambiente per il raffreddamento, a differenza di summit che utilizza acqua fredda. circa il 3-4% del consumo energetico totale di frontier viene utilizzato per il raffreddamento, rispetto al 10% di summit.

a differenza di summit che utilizza acqua refrigerata. circa il 3-4% del consumo energetico totale di frontier viene utilizzato per il raffreddamento, rispetto al 10% di summit.

l’efficienza energetica è stata per anni un ostacolo fondamentale nella costruzione di supercomputer più avanzati e si prevede che rimarrà tale per il prossimo futuro.

messer, direttore del laboratorio, ha dichiarato: "avremmo potuto costruire un supercomputer exascala nel 2012, ma il costo per fornire energia era troppo alto e richiedeva uno o due ordini di grandezza in più".