informasi kontak saya
surat[email protected]
2024-09-26
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
it house melaporkan pada tanggal 26 september bahwa sk hynix hari ini mengumumkan bahwa perusahaan tersebut adalah perusahaan pertama di dunia yang memulai produksi massal chip hbm3e 12 lapis, mencapai kapasitas 36gb terbesar di antara produk hbm yang ada, perusahaan akan menyediakan produk ini kepada pelanggan dalam tahun tersebut.
dipengaruhi oleh berita pertama, harga saham sk hynix naik lebih dari 8% di korea selatan, dengan nilai pasar lebih dari 120,34 triliun won (catatan it house: saat ini sekitar 635,155 miliar yuan).
menurut laporan, sk hynix juga menumpuk 12 chip dram 3gb untuk mencapai ketebalan yang sama dengan produk 8 lapis yang ada, sekaligus meningkatkan kapasitas sebesar 50%. untuk mencapai tujuan ini, perusahaan membuat chip dram individual 40% lebih tipis dari sebelumnya dan menumpuknya secara vertikal menggunakan teknologi through silikon via (tsv).
selain itu, sk hynix juga telah memecahkan masalah struktural yang muncul saat menumpuk lebih banyak chip yang lebih tipis. perusahaan menerapkan teknologi intinya, proses mr-muf yang canggih, pada produk ini, yang meningkatkan kinerja pembuangan panas sebesar 10% dibandingkan generasi sebelumnya dan meningkatkan pengendalian masalah lengkungan untuk memastikan stabilitas dan keandalan.
sejak peluncuran hbm generasi pertama hingga kelima (hbm3e) pertama di dunia pada tahun 2013, perusahaan ini menjadi satu-satunya perusahaan yang mengembangkan dan memasok rangkaian lengkap produk hbm ke pasar. perusahaan ini merupakan perusahaan pertama di industri yang berhasil memproduksi produk tumpuk 12 lapis secara massal, yang tidak hanya memenuhi kebutuhan perusahaan kecerdasan buatan yang terus meningkat, namun juga semakin memperkuat posisi kepemimpinan sk hynix di pasar memori yang berorientasi pada ai.
sk hynix menyatakan bahwa hbm3e 12-lapis telah mencapai level tertinggi di dunia dalam semua aspek seperti kecepatan, kapasitas, dan stabilitas yang diperlukan untuk memori berorientasi ai. hbm3e 12-lapis berjalan pada kecepatan 9,6gbps dan dapat membaca 70 miliar parameter keseluruhan 35 kali per detik ketika menjalankan model bahasa besar 'llama 3 70b' pada gpu yang dilengkapi dengan empat hbm.