berita

Raksasa chip kembali melonjak, siapa dalang di baliknya?

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Pada tanggal 30 Juli, harga saham Nvidia turun 7%, yang merupakan penurunan terbesar perusahaan dalam tiga bulan. Nilai pasarnya menguap US$193,4 miliar dalam semalam, turun menjadi US$2,55 triliun.

Dari 10 hingga 30 Juli, harga saham NVIDIA anjlok 23%, dari US$134,91 per saham menjadi US$103,73. Sebelumnya, momentum kenaikan perusahaan yang tak henti-hentinya seolah membuat investor abai terhadap risikonya.

Selama dua minggu terakhir, investor telah menarik dana dari saham-saham teknologi besar seperti Nvidia karena mereka semakin khawatir bahwa perusahaan-perusahaan besar sedang berjuang untuk mendapatkan keuntungan dari pengeluaran AI mereka.

Analis teknis menunjukkan bahwa perubahan tersebut memberikan ruang bagi harga saham Nvidia untuk turun lebih jauh.

01

Salah Apple?

Penurunan tajam harga saham Nvidia mungkin ada kaitannya dengan Apple.

Pada tanggal 29 Juli, Apple menyatakan dalam makalah teknis bahwa dua model sistem kecerdasan buatan (AI) Apple Intelligence dilatih pada chip cloud yang dirancang oleh Apple merinci pemrosesan tensor yang digunakan untuk pelatihan prosesor (TPU). Selain itu, Apple juga merilis versi pratinjau Apple Intelligence untuk beberapa perangkat.

Apple tidak menyebutkan Google atau Nvidia dalam makalah setebal 47 halaman, tetapi mencatat bahwa Apple Foundation Model (AFM) dan server AFM dilatih pada cluster TPU di cloud. Makalah tersebut menyatakan bahwa sistem ini memungkinkan Apple melatih model AFM secara efisien dan terukur, termasuk AFM di perangkat, server AFM, dan model yang lebih besar.

Apple mengatakan AFM pada perangkat dilatih pada satu bagian chip TPU v5p 2048, TPU paling canggih yang tersedia pada Desember 2023. Server AFM dilatih pada chip 8192 TPU v4, yang dikonfigurasi untuk bekerja bersama sebagai 8 irisan melalui jaringan pusat data.

Google telah lama menerapkan TPU dalam jumlah besar di pusat data untuk mempercepat pelatihan dan inferensi model AI. Selain itu, Google juga menganggap TPU tidak hanya untuk digunakan sendirikomputasi awanLayanan diberikan kepada pihak ketiga untuk digunakan, mengubahnya menjadi produk untuk dijual.

TPU terbaru Google berharga kurang dari $2 per jam, dan chip tersebut memerlukan pemesanan di muka tiga tahun sebelumnya untuk menggunakannya. Google pertama kali meluncurkan TPU untuk beban kerja internal pada tahun 2015 dan menyediakannya untuk umum pada tahun 2017. Mereka sekarang merupakan chip khusus tercanggih yang dirancang untuk kecerdasan buatan.

Meski begitu, Google tetap menjadi salah satu pelanggan utama Nvidia dan menjual akses ke teknologi Nvidia di platform cloud-nya.

Apple sebelumnya mengatakan bahwa inferensi, yang menggunakan model AI terlatih dan menjalankannya untuk menghasilkan konten atau membuat prediksi, akan dilakukan sebagian pada chip di pusat data milik Apple.

Apple merilis dokumen teknis yang relevan selama WWDC 2024 pada bulan Juni, menunjukkan bahwa selain menggunakan perangkat keras seperti prosesor milik Apple dan kerangka perangkat lunaknya sendiri di Apple Intelligence, para insinyur juga menggunakan GPU mereka sendiri yang dikombinasikan dengan Google TPU untuk mempercepat pelatihan model kecerdasan buatan.

Nvidia menghadapi tekanan persaingan yang semakin besar. Dengan mengambil contoh Google, raksasa teknologi ini terus memperluas pangsa pasarnya melalui chip AI yang dikembangkan sendiri. Data dari TechInsights menunjukkan bahwa di pasar akselerator pusat data pada tahun 2023, pengiriman Google TPU akan mencapai 2 juta unit. Meskipun sedikit lebih rendah dari NVIDIA yang berjumlah 3,8 juta unit, ia menduduki peringkat ketiga dalam industri dan memiliki momentum pertumbuhan yang kuat. Nvidia memberikan tantangan . Pada saat yang sama, raksasa teknologi seperti Microsoft secara bertahap mengurangi ketergantungan mereka pada Nvidia dan beralih ke chip dari merek pesaing lainnya.

02

GPU terlalu mahal

Selain risiko ketergantungan tunggal, mahalnya harga GPU Nvidia juga membuat banyak produsen takut.

Laporan menunjukkan bahwa server AI yang dilengkapi dengan GPU Blackwell generasi berikutnya dari Nvidia berharga $2-3 juta per server.

Nvidia telah meluncurkan dua set desain referensi berdasarkan arsitektur Blackwell. Diantaranya, NVL36 dilengkapi dengan 36 kartu akselerator GPU B200. Harganya diperkirakan US$2 juta harganya meningkat. NVL72 berukuran dua kali lipat dan dilengkapi dengan 72 kartu akselerator B200. Harga awal diperkirakan US$3 juta.

NVIDIA memperkirakan pada tahun 2025, pengiriman server B200 diperkirakan mencapai 60.000 hingga 70.000 unit, dengan total harga US$120 miliar hingga US$210 miliar.

Saat ini, AWS, Dell, Google, Meta, Microsoft, dll. tertarik untuk membeli server B200, dan skalanya melebihi ekspektasi.

Server AI sebagian besar terdiri dari CPU, GPU, FPGA, dan prosesor lainnya, yang digunakan untuk menangani sejumlah besar tugas komputasi. Dibandingkan dengan server tradisional, server AI biasanya memerlukan perangkat keras berperforma lebih tinggi untuk memenuhi kebutuhan pemrosesan data skala besar dan perhitungan yang rumit. Karena harga perangkat keras ini yang lebih tinggi, perangkat keras ini menyumbang bagian terbesar dari biaya server AI. Diantaranya, GPU menyumbang biaya terbesar di antara berbagai prosesor.

Dalam proses pelatihan dan inferensi AI, GPU biasanya merupakan perangkat keras yang paling mahal. Hal ini karena GPU memiliki daya komputasi yang kuat dan kemampuan pemrosesan paralel, yang dapat mempercepat proses pelatihan dan inferensi model AI. Sebagian besar server AI dilengkapi dengan beberapa GPU untuk memenuhi kebutuhan komputasi berkinerja tinggi.

Karena GPU memiliki daya komputasi yang kuat, konsumsi dayanya juga tinggi. Untuk memenuhi kebutuhan komputasi model AI, beberapa GPU biasanya perlu dikonfigurasi, yang selanjutnya akan meningkatkan konsumsi daya server. Konsumsi daya yang tinggi berarti server memerlukan pasokan daya yang lebih besar saat dijalankan dan menimbulkan tagihan listrik yang lebih tinggi.

Dibandingkan dengan CPU, GPU memiliki arsitektur yang lebih kompleks dan komponen yang lebih banyak, yang berarti pemeliharaan GPU lebih membosankan dan rumit serta memerlukan lebih banyak teknisi profesional untuk memelihara dan mengelola. Selain itu, karena konsumsi daya GPU yang tinggi, kebutuhan pendinginannya juga lebih tinggi sehingga memerlukan peralatan pendinginan tambahan dan biaya pemeliharaan.

Dengan pesatnya perkembangan teknologi AI, performa GPU juga terus meningkat. Agar tetap kompetitif, banyak perusahaan harus sering membeli GPU versi baru, yang akan meningkatkan biaya server.

Dengan maraknya aplikasi AI, semakin banyak perusahaan yang mulai menggunakan server AI, yang menyebabkan peningkatan permintaan GPU. Ketika pasokan melebihi permintaan, harga GPU juga akan naik.

03

Tekanan pesaing

Para pesaing NVIDIA bersiap-siap, dan di antara mereka, AMD, yang paling menarik perhatian, telah menunjukkan kinerja yang baik akhir-akhir ini.

Pada tanggal 30 Juli, AMD merilis laporan keuangan kuartal kedua tahun 2024. Laba bersih melonjak 881% tahun-ke-tahun, pendapatan bisnis pusat data meningkat dua kali lipat, dan menghilangkan banyak bisnis dari Nvidia.

Total pendapatan AMD pada kuartal ini mencapai US$5,835 miliar, tidak hanya melampaui ekspektasi sebelumnya sebesar US$5,72 miliar, tetapi juga mencapai pertumbuhan tahun ke tahun sebesar 9% dan pertumbuhan bulan ke bulan sebesar 7%. Laba bersih mencapai US$265 juta, peningkatan tahun ke tahun sebesar 881% dan peningkatan bulan ke bulan sebesar 115%.

Penjualan MI300, sebuah chip GPU yang digunakan di pusat data, melampaui US$1 miliar dalam satu kuartal, mendorong peningkatan signifikan pada pendapatan divisi pusat data.

Seri MI300 merupakan GPU AI yang dirilis AMD pada akhir tahun 2023, termasuk MI300X, serta inti CPU terintegrasi dan akselerator GPU MI300A. Diantaranya, benchmark MI300X terhadap H100 Nvidia. Menurut AMD, performa MI300X setara dengan NVIDIA H100 saat digunakan untuk pelatihan AI. Dari segi performa, performanya melebihi produk pesaing. Mengambil contoh server tunggal yang terdiri dari 8 GPU, saat menjalankan model BLOOM dengan 176 miliar parameter dan model Llama2 dengan 70 miliar parameter, kinerja platform MI300X adalah 1,4 hingga 1,6 kali lipat dari platform H100.

CEO AMD Su Zifeng mengatakan bahwa penjualan chip AI perusahaannya "lebih tinggi dari yang diharapkan" dan bahwa Microsoft meningkatkan penggunaan chip MI300 sebagai dukungan daya komputasi untuk GPT-4 Turbo dan untuk mendukung layanan Microsoft Word, Teams, dll. Hugging Face adalah salah satu pelanggan pertama yang mengadopsi cloud Microsoft Azure baru, yang memungkinkan pelanggan perusahaan dan AI untuk menerapkan ratusan ribu model pada MI300 dengan satu klik.

Pada bulan Juni tahun ini, AMD mengumumkan peta jalan iterasi, berencana meluncurkan MI325X pada kuartal keempat tahun ini, dan meluncurkan seri MI350 dan seri MI400 dalam dua tahun ke depan. Diantaranya, M1300X dan MI325X akan mengadopsi CDNA3 arsitektur, dan M1350 akan mengadopsi struktur CDNA4. MI400 akan mengadopsi arsitektur CDNA generasi berikutnya. AMD akan meluncurkan seri produk baru setiap tahunnya. Dari sisi industri, kecepatan tersebut sejalan dengan rencana yang dikeluarkan Nvidia.

Selain itu, Su Zifeng mengatakan bahwa permintaan akan penalaran AI akan lebih besar daripada pelatihan. AI PC adalah bagian yang sangat penting dalam kategori PC, dan pasar PC merupakan peluang pertumbuhan pendapatan yang baik untuk bisnis AMD.

Tahun ini, AMD mempercepat penerapan AI melalui investasi. Pada bulan Juli, perusahaan ini menghabiskan $665 juta untuk mengakuisisi Silo AI, laboratorium kecerdasan buatan terbesar di Eropa, yang menyediakan solusi berbasis AI end-to-end. Akuisisi ini dianggap sebagai langkah penting bagi AMD untuk mengejar ketertinggalan Nvidia.

Su Zifeng mengatakan bahwa selain mengakuisisi Silo AI, AMD telah menginvestasikan lebih dari US$125 juta di lebih dari selusin perusahaan kecerdasan buatan dalam 12 bulan terakhir untuk memperluas ekosistem AMD dan mempertahankan posisi terdepan dalam platform komputasi AMD. AMD akan terus berinvestasi pada perangkat lunak, katanya, yang merupakan salah satu alasan berinvestasi di Silo AI.

Berdasarkan kualitas perangkat keras GPU, pengembangan perangkat lunak, dan ekosistem, AMD bersaing dengan cara yang sama seperti kesuksesan Nvidia.

04

NVIDIA juga memiliki kelemahan

Untuk bersaing dengan NVIDIA, strategi terbaik adalah memanfaatkan kekuatan Anda dan menghindari kelemahan, yaitu menggunakan kekuatan Anda sendiri untuk menyerang kelemahan NVIDIA.

Meskipun kemampuan pemrosesan paralel GPU sangat kuat, inilah alasan mendasar mengapa GPU ini bagus dalam pelatihan AI. Namun saat data dipindahkan bolak-balik, GPU tidak memprosesnya dengan cepat. Saat model AI besar dijalankan, seringkali model tersebut memerlukan GPU dalam jumlah besar dan chip memori dalam jumlah besar, yang saling terhubung satu sama lain. Semakin cepat perpindahan data antara GPU dan memori, semakin baik performanya. Saat melatih model AI besar, beberapa inti GPU tidak digunakan, menunggu data hampir separuh waktu.

Jika sejumlah besar inti prosesor dan memori yang sangat besar dapat digabungkan untuk membentuk komputasi dalam memori, kompleksitas koneksi antara beberapa chip dapat sangat dikurangi dan kecepatan transmisi data dapat ditingkatkan secara signifikan. Sejumlah besar inti prosesor terhubung bersama di dalam chip dan dapat berjalan ratusan kali lebih cepat dibandingkan kombinasi GPU independen. Saat ini sudah banyak startup yang melakukan hal serupa, dan pengembangannya patut mendapat perhatian.

Selain itu, Anda harus bersiap menghadapi perang yang berkepanjangan dalam ekosistem perangkat lunak dan perangkat keras untuk menghadapi NVIDIA. Dalam hal ini, Anda memerlukan latar belakang sumber daya yang kuat untuk memperjuangkan hidup Anda. AMD dan Intel melakukan ini.

Selain itu, selain chip itu sendiri, upaya lebih lanjut dapat dilakukan dalam interkoneksi chip-ke-chip. NVIDIA bukanlah pemimpin dalam aspek ini, tapi Broadcom.

Broadcom memecahkan masalah interkoneksi antar chip dan tidak bersaing langsung dengan GPU Nvidia. Meskipun Nvidia juga memiliki teknologi interkoneksi chip-ke-chip sendiri, dari perspektif seluruh industri, teknologi dan produk Broadcom lebih unggul. Di antara delapan sistem server AI terbesar di dunia, 7 telah menerapkan infrastruktur Ethernet yang didukung oleh teknologi Broadcom Diharapkan pada tahun 2025, semua sistem server AI berskala ultra besar akan didukung oleh Ethernet.

Broadcom adalah yang terbaik dalam memecahkan masalah bandwidth komunikasi. Di pasar SerDes global 50GB/s, Broadcom menempati 76% pangsanya. Antarmuka SerDes-nya mengubah data paralel berkecepatan rendah menjadi data serial berkecepatan tinggi, dan kemudian mengubahnya kembali menjadi data paralel di pihak penerima. Melalui operasi tersebut, data dapat ditransfer dari satu TPU ke TPU lainnya dengan kecepatan tinggi, sehingga sangat meningkatkan efisiensi transmisi.

Juga mendapat manfaat dari pertumbuhan AI, pendapatan produk Netcom Broadcom tumbuh pada tingkat pertumbuhan tahun-ke-tahun sebesar 40%. Laporan keuangan perusahaan menunjukkan bahwa pada kuartal fiskal kedua pada bulan Mei tahun ini, pendapatan AI meningkat sebesar 280% tahun-ke-tahun menjadi US$3,1 miliar, dan jumlah ini diperkirakan akan melebihi US$11 miliar sebelum akhir tahun fiskal ini. .

05

Kejatuhan besar diikuti kenaikan besar lagi

Sejumlah pesaing memberikan tekanan pada Nvidia, yang merupakan alasan penting jatuhnya harga saham perusahaan. Namun, pasar berubah begitu cepat sehingga orang tidak dapat bereaksi tepat waktu.

Pada malam tanggal 31 Juli, harga saham Nvidia tiba-tiba naik tajam, dengan peningkatan lebih dari 14% sekaligus, dan nilai pasarnya meningkat sebesar US$326,9 miliar dalam satu hari.

Nvidia menjadi saham pertama yang mengalami peningkatan kapitalisasi pasar satu hari lebih dari $300 miliar. Saat ini, NVIDIA menempati peringkat tiga teratas dalam daftar peningkatan nilai pasar satu hari di saham AS. Pada tanggal 22 Februari dan 23 Mei tahun ini, nilai pasar satu hari NVIDIA meningkat masing-masing sebesar US$276,6 miliar dan US$217,7 miliar.

Morgan Stanley mengeluarkan laporan penelitian yang menyatakan bahwa mengingat Nvidia baru-baru ini dijual oleh pasar, meskipun alasan spesifiknya tidak diketahui, mereka yakin bahwa hal itu dapat memberikan peluang masuk pasar yang baik bagi investor yang berminat saham dan menghasilkan keuntungan. Perkiraan dan target harga tidak berubah, dengan peringkat "kelebihan berat badan" dan target harga $144.

Hanya dalam dua hari, harga saham Nvidia turun tajam dan kemudian naik tajam. Hal ini mungkin terkait dengan terbatasnya pasokan Blackwell dan kesulitan mengirimkan semua produk tepat waktu.

Morgan Stanley mengatakan bahwa produk-produk Blackwell telah membangkitkan minat yang kuat di pasar, terutama peningkatan signifikan dalam kinerja penalaran, yang semakin mendorong keinginan pelanggan untuk membeli.

Namun, ada berita di industri bahwa chip GPU Blackwell mungkin tertunda, atau produk server yang dilengkapi dengan chip tersebut mungkin tertunda.

Meskipun kinerja banyak teknologi dan produk pesaing semakin baik, memberikan tekanan pada Nvidia, saat ini dan dalam jangka pendek hingga menengah, produk GPU perusahaan masih menjadi kekuatan utama di pasar server AI, dan secara keseluruhan pasokan melebihi permintaan. Karena GPU Blackwell yang ditunggu-tunggu oleh banyak pelanggan akan segera dikirimkan, kabar bahwa pengiriman akan tertunda pasti akan menggugah selera pasar dan membantu kenaikan harga saham.