berita

alam: menjelajahi hari superkomputer tercepat di dunia

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



  laporan kebijaksanaan baru

editor: qiao yang
[pengantar kebijaksanaan baru]di pegunungan di bagian timur tennessee, superkomputer pemecah rekor bernama frontier memberikan para ilmuwan peluang yang belum pernah terjadi sebelumnya untuk mempelajari segala sesuatu mulai dari atom hingga galaksi.

konstruksi superkomputer sedang berjalan lancar, dan ai serta raksasa teknologi terus menyediakan transfusi darah dan membangun pusat data kepada nvidia.

sebelumnya, per desember 2023, superkomputer tercepat di dunia adalah frontier, juga dikenal sebagai olcf-5, terletak di oak ridge, tennessee, as.

frontier dilengkapi dengan cpu dan gpu amd, dengan 50.000 prosesor (termasuk 38.000 gpu), dan kecepatan komputasi 1,102 exaflops, atau 1,102 exaflops per detik (1018) operasi titik mengambang.

kecepatan ini bahkan lebih cepat daripada 100.000 laptop yang bekerja pada waktu yang sama, dan ketika debutnya pada tahun 2022, frontier juga memecahkan rekor ambang batas kecepatan komputasi exascale untuk pertama kalinya.

superkomputer frontier mencakup area yang lebih besar dari dua lapangan basket

alasan dilakukannya kecepatan dan skala yang sangat baik tersebut adalah untuk memenuhi kebutuhan perhitungan simulasi dalam penelitian ilmiah mutakhir di berbagai bidang.

frontier sangat pandai dalam menciptakan simulasi yang menangkap pola skala besar dan detail skala kecil, seperti bagaimana tetesan awan kecil mempengaruhi laju pemanasan iklim.

saat ini, para peneliti masuk ke frontier dari seluruh dunia untuk membuat model mutakhir dari segala sesuatu mulai dari partikel subatom hingga galaksi, termasuk simulasi protein untuk penemuan dan pengembangan obat, simulasi turbulensi untuk meningkatkan mesin pesawat, dan pelatihan llm sumber terbuka yang bersaing dengan google dan bukaai.

namun, suatu hari di bulan april tahun ini, sesuatu yang tidak terduga terjadi pada operasi frontier.

bronson messer, direktur ilmiah laboratorium nasional oak ridge di tennessee, tempat frontier berada, mengatakan bahwa untuk memenuhi permintaan para ilmuwan di seluruh dunia, konsumsi daya frontier telah meningkat tajam, mencapai puncaknya sekitar 27 megawatt, cukup untuk memberi daya pada sekitar 10.000 rumah.

hal ini juga membawa tantangan pada sistem pendingin superkomputer. dalam kata-kata messer, “mesin berjalan seperti anjing yang tersiram air panas.”

menurut statistik pada tahun 2023, frontier memiliki total 1.744 pengguna yang berlokasi di 18 negara, dan perhitungan serta datanya berkontribusi mendukung setidaknya 500 makalah yang diterbitkan secara publik.

menjelajahi bagian dalam “otak” frontier

mirip dengan pemandangan yang kami bayangkan, ruang komputer tempat frontier berada mirip dengan gudang, dan dengungan elektronik yang dihasilkan selama pengoperasian stabil dan lembut.

terdapat 74 rak di ruang komputer, dan setiap node berisi 4 gpu dan 1 cpu. alasan kecepatan komputasi yang begitu cepat adalah karena banyaknya jumlah gpu.

messer, direktur lab, menjelaskan, "gpu ini sangat cepat, namun juga sangat bodoh. mereka dapat melakukan hal yang sama berulang kali."

kemampuan untuk menangani banyak operasi pada saat yang sama sangat berguna untuk pekerjaan cepat di superkomputer, tapi selain itu, tidak banyak lagi.

di balik "kebodohan ekstrim" ini terdapat semacam keserbagunaan. para ilmuwan di berbagai bidang dapat menjalankan gpu melalui kode yang disesuaikan.

frontier beroperasi tanpa henti siang dan malam, dan juga tim teknik bertanggung jawab atas pengoperasian dan pemeliharaan.

tim insinyur yang bertanggung jawab membangun superkomputer ini berasal dari hewlett-packard. salah satu teknisinya, corey edmonds, mengatakan bahwa mereka memiliki tim teknik yang akan terus memantau frontier untuk mengetahui apakah ada tanda-tanda kegagalan.

misalnya, salah satu staf shift malam, conner cunningham, bekerja dari jam 7 malam hingga jam 7 pagi. dia bertanggung jawab menggunakan lebih dari sepuluh monitor untuk memperhatikan keamanan jaringan dan gedung, serta memantau cuaca setempat untuk memastikan keamanan. pengoperasian normal frontier.

faktanya, sebagian besar malam adalah "malam natal". cunningham biasanya hanya perlu melakukan beberapa inspeksi dan dapat menghabiskan sisa waktunya untuk belajar di tempat kerjanya.

“pekerjaan ini seperti menjadi petugas pemadam kebakaran. jika terjadi sesuatu, harus ada seseorang yang bertugas untuk memantaunya.”

mendukung ilmu pengetahuan besar

meskipun frontier beroperasi siang dan malam, tidak mudah bagi peneliti untuk memanfaatkan peluang penggunaan.

direktur ilmiah messer dan tiga rekan lainnya bertanggung jawab atas evaluasi dan persetujuan proposal penggunaan. mereka menyetujui total 131 proyek tahun lalu, dengan tingkat kelulusan sekitar 1/4.

agar dapat disetujui, pemohon harus menunjukkan bahwa proyek mereka akan memanfaatkan seluruh sistem superkomputer, yang biasanya digunakan untuk memodelkan berbagai skala temporal dan spasial.

frontier memiliki total sekitar 65 juta jam node yang tersedia setiap tahun, dan alokasi paling umum yang diperoleh para peneliti adalah 500.000 jam node, yang setara dengan tiga hari pengoperasian berkelanjutan seluruh sistem.

messer mengatakan para peneliti mendapatkan sumber daya komputasi sepuluh kali lebih banyak di frontier dibandingkan di pusat data lainnya.

frontier memiliki lebih dari 50.000 prosesor dan berpendingin cairan

dengan kecepatan komputasi yang lebih cepat dan sumber daya komputasi yang lebih banyak, para peneliti dapat melakukan “ilmu pengetahuan besar” yang lebih ambisius.

misalnya, mensimulasikan proses biologis secara akurat dengan akurasi tingkat atom, seperti bagaimana protein atau asam nukleat dalam larutan berinteraksi dengan bagian sel lainnya.

pada bulan mei tahun ini, beberapa ilmuwan menggunakan frontier untuk mensimulasikan tetesan air berbentuk kubus yang mengandung lebih dari 155 miliar molekul air, yaitu sekitar sepersepuluh lebar rambut manusia sejarah.

dalam jangka pendek, para peneliti berharap untuk mensimulasikan organel untuk menginformasikan laboratorium; mereka juga berharap untuk menggabungkan simulasi resolusi tinggi ini dengan pencitraan ultracepat dari laser elektron bebas sinar-x untuk mempercepat penemuan.

karya-karya ini membuka jalan bagi tujuan yang lebih besar di masa depan – memodelkan seluruh sel dimulai dari atom.

dengan frontier, model iklim juga menjadi lebih akurat.

tahun lalu, ilmuwan iklim matt norman dan peneliti lain menggunakan frontier untuk menjalankan model iklim global dengan resolusi 3,25 kilometer, yang juga menggabungkan pergerakan awan kompleks dengan resolusi lebih halus.

untuk membuat model prediktif selama puluhan tahun, daya komputasi frontier diperlukan dan memerlukan daya komputasi seluruh sistem untuk melakukannya.

agar model cocok untuk prediksi cuaca dan iklim, diperlukan setidaknya satu tahun simulasi harian yang dijalankan.

frontier dapat melakukan simulasi 1,26 tahun per hari, sebuah kecepatan yang memungkinkan peneliti membuat prakiraan 50 tahun yang lebih akurat dibandingkan sebelumnya.

jika dijalankan di komputer lain, kecepatan penghitungan akan jauh lebih lambat untuk mencapai resolusi yang sama dan memperhitungkan pengaruh cloud.

pada skala kosmik yang lebih besar, frontier juga dapat menghadirkan resolusi yang lebih tinggi.

evan schneider, ahli astrofisika di universitas pittsburgh, juga menggunakan frontier untuk mempelajari bagaimana galaksi seukuran bima sakti berevolusi seiring bertambahnya usia.

model galaksi yang mereka buat mencakup empat kali lipat besarnya, dengan ukuran maksimum sekitar 100.000 tahun cahaya. sebelum frontier, struktur terbesar yang disimulasikan dengan resolusi serupa adalah galaksi katai, dengan massa sekitar seperlima puluh.

arti frontier bagi ai

sebagai mantan pemain nomor 1 dunia, status frontier semakin unik karena superkomputer ini merupakan salah satu dari sedikit peralatan yang dimiliki sektor publik, bukan didominasi oleh industri.

karena penelitian di bidang ai seringkali memerlukan daya komputasi yang besar, terdapat kesenjangan yang besar antara hasil akademis dan industri.

menurut statistik beberapa pakar, pada tahun 2021, 96% model ai terbesar akan berasal dari industri. rata-rata, model industri hampir 30 kali lebih besar dibandingkan model akademis.

perbedaannya juga terlihat pada jumlah yang diinvestasikan. badan publik non-pertahanan as menyediakan $1,5 miliar pada tahun 2021 untuk mendukung penelitian ai. pada tahun yang sama, pengeluaran industri global melebihi us$340 miliar.

sejak peluncuran llm komersial seperti gpt-4 dan gemini ultra, kesenjangan sebelumnya antara keduanya semakin melebar. kesenjangan investasi ini telah menyebabkan asimetri yang jelas dalam sumber daya komputasi yang tersedia di industri dan akademisi.

karena pengembangan model dalam industri adalah untuk mendapatkan keuntungan, banyak permasalahan penting yang harus dihadapi dalam pengembangan teknologi yang sering diabaikan, seperti penelitian dasar, kebutuhan kelompok berpenghasilan rendah, penilaian risiko model, koreksi bias model, dll.

jika dunia akademis ingin mengambil tanggung jawab ini, maka diperlukan kekuatan komputasi yang dapat menandingi skala industri, dan di sinilah frontier berperan.

contoh paling umum adalah bahwa llm yang dilatih oleh perusahaan teknologi sering kali mempertahankan sifat kepemilikan yang berbeda-beda, namun peneliti sering kali membuat model yang mereka kembangkan gratis untuk digunakan siapa saja.

hal ini akan membantu peneliti universitas bersaing dengan perusahaan, kata abhinav bhatele, ilmuwan komputer di universitas maryland, college park. “satu-satunya cara bagi akademisi untuk melatih model berukuran serupa adalah dengan memiliki akses ke sumber daya seperti frontier.”

bhatele percaya bahwa fasilitas seperti frontier memainkan peran penting di bidang ai, memungkinkan lebih banyak orang untuk berpartisipasi dalam pengembangan teknologi dan berbagi hasil.

namun, perlu dicatat bahwa persaingan infrastruktur daya komputasi antar negara, perusahaan teknologi, dan organisasi nirlaba masih berlangsung, dan bahkan perusahaan kuat seperti frontier pada akhirnya akan jatuh.

laboratorium oak ridge telah merencanakan penerus frontier, yang disebut discovery, yang akan meningkatkan kecepatan komputasi sebesar 3 hingga 5 kali lipat.

sebagai referensi, frontier 35 kali lebih cepat dari tianhe-2a, superkomputer tercepat di tahun 2014, dan 33.000 kali lebih cepat dari earth simulator, superkomputer tercepat di tahun 2004.

para peneliti masih mendambakan kecepatan yang lebih tinggi, namun para insinyur terus menghadapi tantangan, salah satunya adalah energi.

efisiensi energi frontier empat kali lebih tinggi dibandingkan summit, sebagian besar disebabkan oleh solusi pendinginan yang berbeda.

frontier menggunakan air bersuhu ruangan untuk pendinginan, berbeda dengan summit yang menggunakan air dingin. sekitar 3% hingga 4% dari total konsumsi energi frontier digunakan untuk pendinginan, dibandingkan dengan 10% untuk summit.

berbeda dengan summit yang menggunakan air dingin. sekitar 3-4% dari total konsumsi energi frontier digunakan untuk pendinginan, dibandingkan dengan 10% untuk summit.

efisiensi energi telah menjadi hambatan utama dalam membangun superkomputer yang lebih canggih selama bertahun-tahun, dan diperkirakan akan terus berlanjut di masa mendatang.

messer, direktur laboratorium, berkata, "kita bisa saja membangun superkomputer skala besar pada tahun 2012, namun biaya penyediaan daya terlalu tinggi dan memerlukan daya satu atau dua kali lipat lebih besar."