nachricht

natur: entdecken sie den schnellsten supercomputing-tag der welt

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



  neuer weisheitsbericht

herausgeber: qiao yang
[einführung in die neue weisheit]in den bergen im osten tennessees bietet ein rekordverdächtiger supercomputer namens frontier wissenschaftlern beispiellose möglichkeiten, alles von atomen bis hin zu galaxien zu untersuchen.

der bau von supercomputern ist in vollem gange, und sowohl souveräne ki- als auch technologiegiganten versorgen nvidia ständig mit bluttransfusionen und bauen rechenzentren.

zuvor, stand dezember 2023, war der schnellste supercomputer der welt frontier, auch bekannt als olcf-5, mit sitz in oak ridge, tennessee, usa.

frontier ist mit amd-cpus und -gpus ausgestattet, mit 50.000 prozessoren (einschließlich 38.000 gpus) und einer rechengeschwindigkeit von 1.102 exaflops oder 1.102 exaflops pro sekunde (1018) gleitkommaoperationen.

diese geschwindigkeit ist sogar höher als die von 100.000 gleichzeitig arbeitenden laptops, und als frontier im jahr 2022 auf den markt kam, durchbrach frontier erstmals auch die rekordverdächtige grenze der exascale-rechengeschwindigkeit.

der frontier-supercomputer deckt eine fläche ab, die größer ist als zwei basketballplätze

der grund für das streben nach einer so hervorragenden geschwindigkeit und skalierung besteht darin, den anforderungen von simulationsberechnungen in der wissenschaftlichen spitzenforschung in verschiedenen bereichen gerecht zu werden.

frontier ist sehr gut darin, simulationen zu erstellen, die sowohl großräumige muster als auch kleinräumige details erfassen, etwa wie winzige wolkentröpfchen die geschwindigkeit der klimaerwärmung beeinflussen.

heute melden sich forscher aus der ganzen welt bei frontier an, um hochmoderne modelle von subatomaren teilchen bis hin zu galaxien zu erstellen, einschließlich der simulation von proteinen für die entdeckung und entwicklung von arzneimitteln, der simulation von turbulenzen zur verbesserung von flugzeugtriebwerken und der schulung von open-source-llms, die mit google und anderen konkurrieren openai.

eines tages im april dieses jahres passierte jedoch etwas unerwartetes im betrieb von frontier.

bronson messer, wissenschaftlicher direktor des oak ridge national laboratory in tennessee, wo frontier seinen sitz hat, sagte, dass der stromverbrauch von frontier stark gestiegen sei und einen spitzenwert von etwa 27 megawatt erreicht habe, was ausreicht, um mit den anforderungen von wissenschaftlern auf der ganzen welt schritt zu halten um etwa 10.000 haushalte mit strom zu versorgen.

dies stellt auch das kühlsystem des supercomputers vor herausforderungen. in messers worten: „die maschine läuft wie ein verbrühter hund.“

statistiken zufolge hat frontier im jahr 2023 insgesamt 1.744 benutzer in 18 ländern, und die beigesteuerten berechnungen und daten unterstützen mindestens 500 öffentlich veröffentlichte artikel.

erkundung des inneren von frontiers „gehirn“

ähnlich wie in der szene, die wir uns vorgestellt haben, ähnelt der computerraum, in dem sich frontier befindet, einem lagerhaus, und das während des betriebs erzeugte elektronische brummen ist gleichmäßig und sanft.

im computerraum gibt es 74 racks und jeder knoten enthält 4 gpus und 1 cpu. der grund für die hohe rechengeschwindigkeit liegt in der großen anzahl an gpus.

messer, der laborleiter, beschrieb: „diese gpus sind sehr schnell, aber auch extrem dumm. sie können immer wieder das gleiche tun.“

diese fähigkeit, mehrere vorgänge gleichzeitig abzuwickeln, ist für schnelles arbeiten auf supercomputern sehr nützlich, aber ansonsten gibt es nicht viel mehr.

hinter dieser „extremen dummheit“ verbirgt sich eine art vielseitigkeit, mit der wissenschaftler in verschiedenen bereichen gpus durch maßgeschneiderten code betreiben können.

frontier ist tag und nacht ununterbrochen im einsatz, und auch das ingenieurteam ist für betrieb und wartung verantwortlich.

das für den bau dieses supercomputers verantwortliche ingenieurteam stammt von hewlett-packard. einer der techniker, corey edmonds, sagte, dass sie über ein ingenieurteam verfügen, das frontier kontinuierlich überwachen wird, um festzustellen, ob es anzeichen für einen ausfall gibt.

einer der nachtschichtmitarbeiter, conner cunningham, arbeitet beispielsweise von 19.00 bis 7.00 uhr. er ist dafür verantwortlich, mit mehr als zehn monitoren auf die sicherheit des netzwerks und der gebäude zu achten und das lokale wetter zu überwachen normaler betrieb von frontier.

tatsächlich sind die meisten nächte „heiligabend“. normalerweise muss cunningham nur ein paar inspektionen durchführen und kann den rest der zeit an seinem arbeitsplatz lernen.

„dieser job ist ein bisschen wie ein feuerwehrmann. wenn etwas passiert, muss jemand im dienst sein, der es überwacht.“

wir treiben die große wissenschaft voran

obwohl frontier tag und nacht im einsatz ist, ist es für forscher nicht einfach, sich um nutzungsmöglichkeiten zu bewerben.

der wissenschaftliche direktor messer und drei weitere kollegen sind für die bewertung und genehmigung von nutzungsvorschlägen verantwortlich. sie haben im vergangenen jahr insgesamt 131 projekte genehmigt, mit einer erfolgsquote von etwa 1/4.

um genehmigt zu werden, müssen antragsteller nachweisen, dass ihre projekte das gesamte supercomputing-system nutzen, das typischerweise zur modellierung verschiedener zeitlicher und räumlicher skalen verwendet wird.

frontier verfügt jedes jahr über insgesamt etwa 65 millionen knotenstunden, und die von forschern am häufigsten ermittelte zuteilung beträgt 500.000 knotenstunden, was drei tagen ununterbrochenem betrieb des gesamten systems entspricht.

laut messer erhalten forscher bei frontier etwa zehnmal mehr rechenressourcen als in anderen rechenzentren.

frontier verfügt über mehr als 50.000 prozessoren und ist flüssigkeitsgekühlt

mit schnelleren rechengeschwindigkeiten und mehr rechenressourcen können forscher ehrgeizigere „große wissenschaft“ betreiben.

zum beispiel die genaue simulation biologischer prozesse mit atomarer genauigkeit, etwa wie proteine ​​oder nukleinsäuren in lösung mit anderen teilen der zelle interagieren.

im mai dieses jahres simulierten einige wissenschaftler mit frontier einen würfelförmigen wassertropfen, der mehr als 155 milliarden wassermoleküle enthält, was etwa einem zehntel der breite eines menschlichen haares entspricht. es handelt sich um eine der größten simulationen auf atomarer ebene geschichte.

kurzfristig hoffen die forscher, die organellen zu simulieren, um das labor zu informieren. sie hoffen auch, diese hochauflösenden simulationen mit ultraschneller bildgebung von röntgen-freie-elektronen-lasern zu kombinieren, um die entdeckung zu beschleunigen.

diese arbeiten ebnen den weg für ein größeres ziel in der zukunft – die modellierung der gesamten zelle ausgehend von atomen.

mit frontier werden auch klimamodelle genauer.

letztes jahr nutzten der klimaforscher matt norman und andere forscher frontier, um ein globales klimamodell mit einer auflösung von 3,25 kilometern zu erstellen, das auch komplexe wolkenbewegungen mit feinerer auflösung berücksichtigte.

um jahrzehntelange vorhersagemodelle zu erstellen, ist die rechenleistung von frontier notwendig und erfordert dazu die rechenleistung des gesamten systems.

damit ein modell für wetter- und klimavorhersagen geeignet ist, sind mindestens ein jahr täglicher simulationsläufe erforderlich.

frontier kann 1,26 jahre pro tag simulieren, eine geschwindigkeit, die es forschern ermöglicht, genauere 50-jahres-prognosen als zuvor zu erstellen.

wenn es auf einem anderen computer ausgeführt wird, ist die berechnungsgeschwindigkeit viel langsamer, um die gleiche auflösung zu erreichen und den einfluss der cloud zu berücksichtigen.

im größeren kosmischen maßstab kann frontier auch eine höhere auflösung bringen.

evan schneider, astrophysiker an der university of pittsburgh, nutzt frontier auch, um zu untersuchen, wie sich galaxien in der größe einer milchstraße mit zunehmendem alter entwickeln.

das von ihnen erstellte galaxienmodell umfasst vier größenordnungen mit einer maximalen größe von etwa 100.000 lichtjahren. vor frontier waren die größten mit ähnlichen auflösungen simulierten strukturen zwerggalaxien mit einer masse von etwa einem fünfzigstel.

was frontier für die ki bedeutet

als ehemalige nummer 1 der welt ist der status von frontier umso einzigartiger, als dieser supercomputer zu den wenigen geräten gehört, die dem öffentlichen sektor gehören und nicht von der industrie dominiert werden.

da forschung im bereich ki oft enorme rechenleistung erfordert, klafft eine große lücke zwischen den ergebnissen von wissenschaft und industrie.

statistiken einiger wissenschaftler zufolge werden im jahr 2021 96 % der größten ki-modelle aus der industrie kommen. im durchschnitt sind industriemodelle fast 30-mal größer als akademische modelle.

der unterschied zeigt sich auch in der investitionssumme. öffentliche behörden der usa, die nicht im verteidigungsbereich tätig sind, stellten im jahr 2021 1,5 milliarden us-dollar zur unterstützung der ki-forschung bereit. im selben jahr überstiegen die weltweiten industrieausgaben 340 milliarden us-dollar.

seit der veröffentlichung kommerzieller llms wie gpt-4 und gemini ultra hat sich die bisherige kluft zwischen beiden weiter vergrößert. diese investitionslücke hat zu einer deutlichen asymmetrie bei den verfügbaren rechenressourcen in industrie und wissenschaft geführt.

da die modellentwicklung in der branche gewinnorientiert ist, werden viele wichtige probleme, die bei der technologischen entwicklung berücksichtigt werden müssen, häufig ignoriert, wie z. b. grundlagenforschung, die bedürfnisse einkommensschwacher gruppen, die bewertung von modellrisiken, die korrektur von modellverzerrungen usw.

wenn die wissenschaft diese verantwortung übernehmen soll, braucht sie rechenleistung, die mit der größe der branche mithalten kann, und hier kommt frontier ins spiel.

das typischste beispiel ist, dass llms, die von technologieunternehmen ausgebildet werden, oft in unterschiedlichem maße proprietärer natur sind, forscher die von ihnen entwickelten modelle jedoch oft kostenlos zur nutzung durch jedermann zur verfügung stellen.

dies wird universitätsforschern helfen, mit unternehmen zu konkurrieren, sagte abhinav bhatele, informatiker an der university of maryland, college park. „die einzige möglichkeit für menschen in der wissenschaft, modelle ähnlicher größe zu trainieren, besteht darin, zugang zu ressourcen wie frontier zu haben.“

bhatele ist davon überzeugt, dass einrichtungen wie frontier diese wichtige rolle im bereich der ki spielen und es mehr menschen ermöglichen, sich an der technologieentwicklung zu beteiligen und ergebnisse auszutauschen.

es ist jedoch erwähnenswert, dass der wettbewerb um die rechenleistungsinfrastruktur zwischen ländern, technologieunternehmen und gemeinnützigen organisationen immer noch andauert und selbst ein mächtiges unternehmen wie frontier irgendwann scheitern wird.

das oak ridge laboratory plant bereits einen nachfolger von frontier namens discovery, der die rechengeschwindigkeit um das drei- bis fünffache steigern soll.

als referenz: frontier ist 35-mal schneller als tianhe-2a, der schnellste supercomputer im jahr 2014, und 33.000-mal schneller als earth simulator, der schnellste supercomputer im jahr 2004.

forscher sehnen sich immer noch nach höheren geschwindigkeiten, aber ingenieure stehen vor anhaltenden herausforderungen, zu denen auch die energie gehört.

die energieeffizienz von frontier ist mehr als viermal höher als die von summit, was hauptsächlich auf unterschiedliche kühllösungen zurückzuführen ist.

frontier verwendet zur kühlung wasser mit raumtemperatur, im gegensatz zu summit, das kaltes wasser verwendet. etwa 3 bis 4 % des gesamtenergieverbrauchs von frontier werden für die kühlung verwendet, verglichen mit 10 % bei summit.

im gegensatz zu summit, das gekühltes wasser verwendet. etwa 3–4 % des gesamtenergieverbrauchs von frontier werden für die kühlung verwendet, verglichen mit 10 % bei summit.

energieeffizienz ist seit jahren ein entscheidender engpass beim bau fortschrittlicherer supercomputer und wird voraussichtlich auch in absehbarer zukunft so bleiben.

messer, direktor des labors, sagte: „wir hätten 2012 einen supercomputer im exa-maßstab bauen können, aber die kosten für die stromversorgung waren zu hoch und erforderten ein oder zwei größenordnungen mehr leistung.“