berita

sekilas tentang status chip ai dalam negeri saat ini: produksi gpu, penggerebekan tpu, chiplet yang menjadi tren, dan kemacetan jaringan

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

penulis |.gacs

xinxi melaporkan pada tanggal 6 september bahwa global ai chip summit (gacs 2024) tahunan dibuka di beijing hari ini. tempat tersebut dipenuhi dengan kursi, dan jumlah pemirsa siaran langsung cloud mencapai 1,2 juta.

▲ terdapat banyak sekali orang di dalam dan di luar lokasi.

konferensi ini disponsori oleh core east west dan orangutan cerdas dari zhiyi technology. dengan tema "membangun jalan inti bersama di era komputasi cerdas", konferensi ini mengundang 50+ tamu dari bidang chip ai, chiplets, risc-v, dan kecerdasan. cluster komputasi, ai infra, dan bidang lainnya. para tamu akan berbagi informasi berguna pada pertemuan tersebut.

ini adalah ulang tahun kelima berdirinya gpgpu unicorn biren technology dalam negeri. pada konferensi tersebut, biren technology mengumumkan bahwa mereka telah mencapai terobosan dalam teknologi inti pelatihan campuran multi-inti dan menciptakan solusi pelatihan kolaboratif gpu heterogen hgct di industri, ini dapat mendukung 3 atau lebih jenis gpu yang heterogen dalam model besar yang sama.

▲biren technology meluncurkan solusi pelatihan kolaboratif gpu heterogen domestik hgct

gong lunchang, salah satu pendiri dan ceo zhiyi technology, menyampaikan pidato sebagai penyelenggara. tahun ini adalah tahun ketujuh diadakannya global ai chip summit. ktt ini telah menjadi konferensi industri paling berpengaruh di bidang ini di tiongkok dan adalah tempat yang baik untuk memahami perkembangan chip ai di dalam dan luar negeri.

▲gong lunchang, salah satu pendiri dan ceo zhiyi technology

global ai chip summit berlangsung selama dua hari. tempat utama meliputi upacara pembukaan dan tiga sesi utama (arsitektur chip ai, chip ai pusat data, chip ai edge). sub-tempatnya meliputi forum teknologi chiplet, forum teknologi cluster komputasi cerdas dan forum inovasi risc-v.

pada upacara pembukaan, yin shouyi, profesor universitas tsinghua dan wakil dekan sekolah sirkuit terpadu, memberikan pidato utama bertajuk "diskusi jalur pengembangan chip daya komputasi tinggi: dari arsitektur komputasi ke arsitektur terpadu", meninjau secara sistematis chip daya komputasi tinggi. tantangan teknis yang ada, dan menganalisis secara komprehensif lima jalur teknologi inovatif: chip aliran data, chip penyimpanan dan komputasi terintegrasi, chip yang dapat dikonfigurasi ulang, chip terintegrasi tiga dimensi, dan chip tingkat wafer.

hari ini, 21 pakar, pengusaha, dan eksekutif dari universitas ternama, lembaga penelitian, dan perusahaan chip ai akan berbagi. di antara mereka, sesi dialog kelas atas mengundang perwakilan dari tiga startup chip ai untuk berdebat dengan penuh semangat, yaitu biren technology, unicorn chip berdaya tinggi dalam negeri, aixin yuanzhi, unicorn chip ai sisi perangkat dan sisi tepi, dan sebuah perusahaan itu hanya lingchuan technology, startup chip ai muda yang didirikan setengah tahun lalu. mereka fokus membahas status terkini, praktik terkini, dan arah lanjutan industri chip ai.

1. mengatasi tantangan penawaran dan permintaan daya komputasi model skala besar dan inovasi arsitektur untuk menerobos hambatan kinerja

yin shouyi, profesor di universitas tsinghua dan wakil dekan sekolah sirkuit terpadu, menjelaskan kesulitan antara pasokan dan permintaan daya komputasi di era model besar: teknologi chip menghadapi batas penurunan, yang menyebabkan peningkatan daya komputasi yang disebabkan oleh dividen proses tidak berkelanjutan; sistem menghadapi hambatan penurunan skala, bandwidth komunikasi yang tidak mencukupi menyebabkan hilangnya kinerja sistem.

peluang untuk memecahkan dua masalah besar ini terletak pada inovasi bersama arsitektur komputasi chip komputasi dan arsitektur terintegrasi: inovasi dalam arsitektur komputasi memungkinkan setiap transistor dimanfaatkan sepenuhnya dan mengerahkan daya komputasi yang lebih kuat. inovasi dalam arsitektur terintegrasi memungkinkan skala chip untuk menerobos batasannya.

saat ini ada lima jalur teknologi baru untuk pengembangan chip daya komputasi tinggi: chip aliran data, chip yang dapat dikonfigurasi ulang, chip penyimpanan dan komputasi terintegrasi, chip terintegrasi tiga dimensi, dan chip tingkat wafer. tak satu pun dari jalur ini sepenuhnya bergantung pada proses manufaktur tercanggih, yang akan membantu membuka ruang baru bagi industri chip dalam negeri untuk meningkatkan daya komputasi.

▲ yin shouyi, profesor di universitas tsinghua dan wakil dekan sekolah sirkuit terpadu

amd telah menciptakan lini produk yang komprehensif di bidang infrastruktur ai end-to-end, mulai dari server pusat data, pc ai hingga perangkat tertanam dan edge yang cerdas, dan menyediakan perangkat lunak sumber terbuka ai terkemuka dan ekosistem terbuka. platform prosesor cpu amd yang dirancang berdasarkan arsitektur zen4 canggih dan akselerator seri mi berdasarkan arsitektur cdna3 untuk penalaran dan pelatihan ai telah diadopsi oleh raksasa seperti microsoft.

menurut wang hongqiang, direktur senior divisi kecerdasan buatan amd, amd juga mempromosikan infrastruktur jaringan berkinerja tinggi (ualink, ultra ethernet) di pusat data, yang sangat penting bagi struktur jaringan ai untuk mendukung peralihan cepat dan latensi sangat rendah, dan untuk memperluas kinerja pusat data ai penting.

amd akan merilis pc ai berperforma tinggi generasi berikutnya. npu ai ryzen yang berbasis pada arsitektur xdna generasi kedua dapat memberikan daya komputasi 50tops dan meningkatkan rasio efisiensi energi hingga 35 kali lipat dari arsitektur tujuan umum. didorong oleh dorongan ai pc untuk privasi, keamanan, dan otonomi data, beban kerja ai yang penting mulai diterapkan pada pc. sebagai salah satu penyedia infrastruktur ai terkemuka di dunia, amd bersedia bekerja sama dengan pelanggan dan pengembang untuk membangun masa depan yang transformatif.

▲wang hongqiang, direktur senior divisi kecerdasan buatan amd

sejak tahun 2015, qualcomm terus berinovasi dalam desain perangkat keras npu berdasarkan perubahan dalam kasus penggunaan aplikasi ai. diwakili oleh snapdragon 8 generasi ketiga, qualcomm ai engine mengadopsi arsitektur komputasi heterogen yang mengintegrasikan beberapa prosesor seperti cpu, gpu, dan npu. diantaranya, qualcomm hexagon npu mengoptimalkan kinerja dan efisiensi energi melalui memori berskala besar, catu daya khusus untuk akselerator, peningkatan arsitektur mikro, dan desain lainnya. ai memiliki banyak kasus penggunaan dan kebutuhan daya komputasi yang bervariasi. oleh karena itu, permintaan akan komputasi heterogen dan integrasi prosesor akan bertahan lama, yang juga akan menghasilkan serangkaian peningkatan dalam kinerja puncak, efisiensi energi, biaya, dan lain-lain.

lini produk qualcomm mencakup berbagai skenario aplikasi edge-side seperti ponsel, pc, xr, mobil, dan iot. lini produk ini dapat mendukung pengembang untuk menggunakan solusi perangkat lunak dan perangkat keras ai qualcomm untuk akselerasi algoritma dalam berbagai bentuk produk, sehingga menghasilkan kekayaan manfaat bagi konsumen. pengalaman dan kasus penggunaan ai pada perangkat. terakhir, wan weixing, head of qualcomm ai product technology china, juga mengumumkan bahwa platform seluler snapdragon generasi berikutnya yang dilengkapi dengan cpu qualcomm oryon terbaru akan dirilis pada snapdragon summit yang akan diadakan pada tanggal 21 hingga 23 oktober tahun ini.

▲wan weixing, kepala teknologi produk qualcomm ai di tiongkok

yang yue, salah satu pendiri dan ceo pingxin technology, menguraikan proses kemajuan teknologi penyimpanan dan komputasi terintegrasi. kemunculan dan pertumbuhan chip mainstream di industri erat kaitannya dengan karakteristik kebutuhan komputasi saat ini. sekitar tahun 2015, hambatan komputasi dalam arsitektur komputasi berpindah dari sisi prosesor ke sisi penyimpanan, terutama munculnya jaringan saraf, yang mempercepat percepatan. efisiensi komputasi chip ai. dengan laju peningkatan, teknologi penyimpanan dan komputasi telah menarik perhatian.

yang yue percaya bahwa di era model besar, peluang untuk teknologi penyimpanan dan komputasi terintegrasi adalah dengan menambahkan komputasi di mana pun terdapat penyimpanan data. dengan pengembangan perangkat lunak yang berkelanjutan, chip sisi akhir yang berbasis pada penyimpanan dan komputasi secara bertahap telah matang pada tahun ini. di masa depan, mengatasi kemacetan bandwidth data di cloud mungkin menjadi aplikasi pembunuh berikutnya untuk chip penyimpanan dan komputasi.

▲yang yue, salah satu pendiri dan ceo pingxin technology

tan zhanhong, cto arctic xiongxin, mengatakan bahwa di bidang komputasi kinerja tinggi, terdapat dua paradigma berbeda dalam desain server: bentuk server standar dan arsitektur server yang disesuaikan. dalam bentuk server standar, arctic xiongxin berfokus pada pencapaian kinerja biaya yang lebih tinggi melalui pemecahan chip yang tepat dan solusi pengemasan dalam area terbatas standar dalam bentuk server non-standar, hal ini memberikan peluang untuk integrasi tingkat wafer, dengan fokus pada integrasi desain chip dan sistem, serta merancang bersama server dan chip, yang bertujuan untuk mencapai tujuan "server sebagai chip".

secara khusus, tan zhanhong menekankan bahwa desain chip yang berbeda memiliki persyaratan bandwidth yang berbeda. misalnya, dalam proses di atas 7nm, dikombinasikan dengan optimalisasi komunikasi penerapan, kepadatan bandwidth interkoneksi yang tinggi seringkali tidak diperlukan, sehingga pengemasan yang canggih tidak diperlukan berdasarkan paket 2d dapat memenuhi persyaratan kinerja dan mencapai solusi hemat biaya. ip pb-link arctic xiongxin berdasarkan "standar antarmuka interkoneksi chip inti" telah secara resmi merealisasikan interkoneksi dengan biaya pengemasan yang rendah dan kini telah mulai memberi otorisasi kepada pihak eksternal.

▲ cto xiongxin arktik tan zhanhong

2. dialog kelas atas: chip ai dalam negeri telah meningkatkan kemampuan hematopoietik, dan produk dari perusahaan rintisan termuda telah diluncurkan di kuaishou

zhang guoren, salah satu pendiri dan pemimpin redaksi zhiyi technology, dan ding yunfan, wakil presiden dan kepala arsitek perangkat lunak ai di biren technology, liu li, salah satu pendiri dan wakil presiden lingchuan technology, dan liu jianwei, rekan -pendiri dan wakil presiden aixin yuanzhi, memulai diskusi dialog meja bundar dengan tema "konsensus, kreasi bersama, dan saling menguntungkan dalam implementasi chip ai dalam negeri".

zhang guoren mengatakan di awal dialog meja bundar bahwa ai chip summit yang keenam, yang diprakarsai oleh zhidongxi, coredongxi, dan zhiangzhi, adalah konferensi profesional yang paling lama berjalan di bidang ini di tiongkok chip ai dan model-model besar. perkembangan juga telah menyaksikan munculnya sejumlah "kekuatan baru" pembuat inti dalam negeri.

▲zhang guoren, salah satu pendiri dan pemimpin redaksi teknologi zhiyi

ding yunfan mengatakan bahwa chip berdaya komputasi besar adalah industri yang padat teknologi, padat bakat, dan padat modal. sebagai chip unicorn dengan pendanaan publik terbesar di pasar, biren technology memiliki talenta terbaik. produk generasi pertamanya telah diproduksi secara massal dan beberapa cluster kartu kilo gpu dalam negeri telah diluncurkan, yang dapat menghasilkan darah secara mandiri. namun, situasi industri chip dalam negeri secara keseluruhan masih tidak mudah, dan masih terdapat kesenjangan antara aspek ekologi dengan luar negeri.

banyak chip ai dalam negeri mulai digunakan di pusat data dan pusat komputasi cerdas. dalam pandangan ding yunfan, produk dalam negeri nvidia tidak terlalu hemat biaya. selama chip dalam negeri dapat memberikan kinerja tinggi dan hemat biaya, akan ada pasarnya. saat ini semakin banyak pemberitaan tentang peluncuran industri chip dalam negeri dan peningkatan kemampuan hematopoietik secara bertahap akan menyempit.

▲ding yunfan, wakil presiden teknologi biren dan kepala arsitek perangkat lunak ai

liu jianwei percaya bahwa biaya rendah adalah bagian yang sangat penting, dan perusahaan pada akhirnya harus melunasi hutangnya, dan investasi mereka di bidang infrastruktur harus diperoleh kembali. liu li percaya bahwa di masa depan, di jalur tersegmentasi seperti kecerdasan yang diwujudkan dan video pintar, masuknya lebih banyak perusahaan akan membawa nilai lebih tinggi daripada produk umum, yang akan menekan pendapatan dan keuntungan nvidia.

lingchuan technology adalah salah satu startup chip ai domestik termuda. didirikan pada bulan maret tahun ini dan telah menyelesaikan putaran pendanaan. chip pemrosesan video pintar yang saat ini dijual telah diluncurkan di kuaishou, mencakup 99% penggunaan di kuaishou. bidang pemrosesan video. chip inferensi daya komputasi diharapkan akan dirilis awal tahun depan.

dalam pandangan liu li, jendela pasar chip ai masih jauh dari selesai. menghadapi keunggulan sumber daya, dana, dan ekologi yang dimiliki raksasa, para startup perlu melakukan upaya di bidang vertikal dan tersegmentasi. teknologi lingchuan menggabungkan pemrosesan video cerdas dan kekuatan komputasi inferensi ai, dengan tujuan mengurangi biaya inferensi per token hingga 10% dari nvidia h800.

▲liu li, salah satu pendiri dan wakil presiden teknologi lingchuan

aixin yuanzhi, yang menargetkan sisi ujung dan ujung, telah mencapai hasil yang luar biasa dalam pangsa pasar. liu jianwei percaya bahwa kedua bidang ini akan mewujudkan loop tertutup komersial lebih cepat. dia menambahkan bahwa pembuatan chip ai pada akhirnya akan menghasilkan uang, tetapi jadwal keuntungan sebenarnya akan dipengaruhi oleh faktor-faktor seperti biaya penerapan ai, dan perusahaan harus mencapai produksi mandiri dan loop tertutup sesegera mungkin. kedepannya, aixin yuanzhi akan menjajaki skenario implementasi model besar di sisi ujung dan sisi tepi.

pengiriman produk aixin yuanzhi di bidang otomotif sangat mengesankan. liu jianwei mengatakan hal ini karena teknologi chip yang mendasari kota pintar dan mobil serupa segera tercapai. pada saat yang sama, perang harga di bidang otomotif akan mendorong pembagian kerja industri yang merupakan sebuah periode peluang.

▲liu jianwei, salah satu pendiri dan wakil presiden aixin yuanzhi

mengenai bagaimana chip ai dalam negeri dapat dengan cepat menemukan ceruk ekologis, liu jianwei mengambil contoh perkembangan mendalam aixin yuanzhi sebagai contoh. pada dasarnya tidak ada perusahaan asing di kota pintar 1, dan dari 1 sampai 100, tahapan yang lebih memperhatikan biaya adalah dalam negeri. ding yunfan menyebutkan empat elemen: jaminan pasokan yang stabil dan andal, efektivitas biaya, layanan dukungan yang efisien berdasarkan kebutuhan pelanggan, serta efisiensi dan kemudahan penggunaan. liu li percaya bahwa kita harus mempelajari lebih dalam bidang vertikal dan menciptakan solusi yang lebih efisien dan optimal dibandingkan chip tujuan umum.

melihat ke depan, liu jianwei memperkirakan bahwa dalam 4-5 tahun ke depan, akan ada peluang pengembangan yang besar baik di sisi perangkat maupun di sisi cloud. setelah biaya implementasi di industri berkurang, data dapat mewujudkan nilai yang lebih besar . liu li percaya bahwa ketika aplikasi ai memasuki periode yang eksplosif, akan ada sejumlah besar permintaan yang masuk akal di sisi cloud. ding yunfan mengatakan bahwa kekuatan komputasi kelas atas masih langka di tiongkok, namun kolaborasi rantai industri dapat mencapai perkembangan yang stabil.

3. pembangunan pusat komputasi pintar sedang meningkat: terobosan baru dalam gpu, tpu domestik, dan chiplet menjadi pemenang

pada sesi chip ai pusat data yang diadakan pada sore hari, yu mingyang, kepala habana china, mengatakan bahwa dalam tiga tahun terakhir, sekitar 50+ pusat komputasi pintar yang dipimpin pemerintah telah dibangun dan 60+ sedang dalam perencanaan dan konstruksi pembangunan pusat komputasi pintar secara bertahap dari kota-kota tingkat pertama ke kota-kota tingkat kedua dan ketiga, dan dari yang dipimpin oleh pemerintah hingga yang dipimpin oleh perusahaan, persyaratan untuk pengurangan biaya dan siklus pengembalian investasi juga secara bertahap meningkat.

menurut pengamatannya, pengembangan model besar menjadi semakin matang dan permintaan akan inferensi terus meningkat. tingkat pertumbuhan chip inferensi yang dikembangkan sendiri oleh csp utama akan meningkat sisi inferensi.

permintaan untuk pelatihan model besar di luar negeri akan tetap kuat, dan permintaan daya komputasi untuk pelatihan model dalam negeri pada dasarnya sudah jenuh, terutama dari bisnis fine-tuning. untuk mendukung pengembangan ai di masa depan, integrasi chiplet, memori berkecepatan tinggi berkapasitas besar, dan teknologi interkoneksi berkecepatan tinggi swasta/umum akan memainkan peran penting.

▲ yu mingyang, kepala habana tiongkok

untuk mengatasi masalah silo daya komputasi yang heterogen pada model-model besar, ding yunfan, wakil presiden biren technology dan kepala arsitek perangkat lunak ai, mengumumkan peluncuran solusi pelatihan kolaboratif gpu heterogen asli milik biren, hgct. ini adalah pertama kalinya di industri yang mendukung tiga atau lebih gpu heterogen untuk secara kolaboratif melatih model besar yang sama, yaitu mendukung pelatihan campuran dengan "nvidia + biren + gpu merek lain". dan efisiensi pelatihan ujung ke ujung mencapai 90~ 95%.

bi ren bekerja sama dengan pelanggan dan mitra untuk bersama-sama mempromosikan ekosistem pelatihan kolaboratif gpu yang heterogen, termasuk china telecom, zte, sensetime, state grid intelligence research institute, shanghai intelligent computing technology co., ltd., shanghai artificial intelligence laboratory, china institute of teknologi informasi dan komunikasi, dll.

produk-produknya telah digunakan secara komersial di beberapa cluster gpu kilo-card. biren telah mengembangkan solusi keseluruhan model besar yang mengintegrasikan perangkat lunak dan perangkat keras, optimalisasi tumpukan penuh, kolaborasi heterogen, dan sumber terbuka. untuk pertama kalinya, biren telah merealisasikan perluasan elastis otomatis dan kontraksi tugas paralel 3d model besar, menjaga tingkat pemanfaatan cluster hampir 100%. biren telah mencapai pemulihan otomatis 100 miliar model parameter dalam cluster 1000 kartu dalam 10 menit , tidak ada kegagalan selama 4 hari, dan tidak ada gangguan selama 15 hari.

▲ding yunfan, wakil presiden teknologi biren dan kepala arsitek perangkat lunak ai

zheng hanxun, salah satu pendiri dan cto zhonghao xinying, mengatakan bahwa model ai besar saat ini jauh melebihi kompleksitas komputasi dan kebutuhan daya komputasi kapan pun dalam sejarah komputasi, dan memerlukan chip khusus yang lebih baik dalam penghitungan ai. dibandingkan dengan gpu, yang awalnya dirancang untuk rendering dan pemrosesan gambar secara real-time, tpu terutama dirancang untuk pembelajaran mesin, model pembelajaran mendalam, dan penghitungan jaringan saraf. ini sangat dioptimalkan untuk operasi tensor efisiensi pemrosesan telah meningkat pesat dibandingkan dengan gpu.

chip "snap" yang dikembangkan sendiri oleh zhonghao xinying adalah chip ai berarsitektur tpu berperforma tinggi pertama di tiongkok yang diproduksi secara massal. setelah perhitungan komprehensif mengenai kinerja komputasi, biaya, dan konsumsi energi, biaya unit komputasi hanya 50% dari biaya komputasi gpu terkemuka di luar negeri. . zheng hanxun percaya bahwa pada tahap selanjutnya dari pengembangan model skala besar, rasio efektivitas biaya terbaik dari cluster kilo dan 10,000-ka akan menjadi sangat penting. interkoneksi langsung berkecepatan tinggi antara hingga 1,024 chip dalam chip setsana akan menjadi a faktor penting dalam membangun cluster komputasi skala besar. performanya bisa jauh melebihi gpu tradisional hingga beberapa kali lipat.

▲zheng hanxun, salah satu pendiri dan cto zhonghao xinying

menurut stephen feng, kepala produk komputasi akselerasi terbuka di inspur information, seiring dengan meningkatnya skala parameter model besar, pengembangan ai generatif menghadapi empat tantangan utama: skalabilitas cluster yang tidak mencukupi, konsumsi daya chip yang tinggi, penerapan cluster yang sulit, dan sistem yang rendah. keandalan. inspur information selalu berorientasi pada aplikasi dan berpusat pada sistem, merangsang vitalitas inovasi ai generatif melalui sistem terbuka kaiyuan.

dalam hal keterbukaan perangkat keras, kami telah menetapkan spesifikasi oam (open acceleration module) untuk mempercepat penerapan daya komputasi tingkat lanjut secara online dan mendukung akselerasi berulang pada model besar dan aplikasi ai. dalam hal keterbukaan perangkat lunak, melalui platform pengembangan model besar "yuannao qizhi" epai, kami menciptakan platform dukungan pengembangan aplikasi proses penuh untuk perusahaan melalui solusi ujung ke ujung, kami memecahkan masalah ilusi yang ada di bidang dasar model besar dan memecahkan masalah pengembangan aplikasi seperti proses yang kompleks, ambang batas yang tinggi, kesulitan dalam mengadaptasi banyak model, dan biaya tinggi akan mempercepat inovasi dan implementasi aplikasi model besar perusahaan.

▲stephen feng, kepala produk komputasi akselerasi terbuka informasi inspur

qingcheng jizhi didirikan pada tahun 2023, dengan fokus pada jalur ai infra. tim ini diinkubasi di departemen ilmu komputer universitas tsinghua dan telah mengumpulkan lebih dari sepuluh tahun pengalaman dalam optimalisasi daya komputasi cerdas.

shi tianhui, salah satu pendiri qingcheng jizhi, berbagi bahwa sistem komputasi berkinerja tinggi dalam negeri menghadapi tantangan seperti kesulitan dalam pemulihan kesalahan dan kinerja yang kurang sehat. sistem tersebut memerlukan kerja sama dari 10 sistem perangkat lunak dasar inti, dan qingcheng jizhi sudah termasuk di antaranya lebih dari separuh ladang tersebut memiliki produk yang dikembangkan sendiri.

saat ini, qingcheng jizhi telah menguasai akumulasi teknologi full-stack dari kompiler tingkat bawah hingga sistem komputasi paralel tingkat atas, mencapai cakupan full-stack dari ekologi industri model besar, dan menyelesaikan beberapa optimasi inferensi throughput tinggi dari chip domestik dan model mainstream skala besar dengan cepat ditransplantasikan dan dioptimalkan, dan efek perhitungan meningkat secara signifikan. diantaranya, sistem pelatihan model besar "bagua furnace" yang dikembangkan untuk cluster daya komputasi domestik berskala sangat besar dapat diperluas hingga skala 100.000 server dan digunakan untuk melatih model dengan 174 triliun parameter.

▲shi tianhui, salah satu pendiri qingcheng jizhi

huang xiaobo, direktur pemasaran teknologi xinhe semiconductor, mengatakan bahwa permintaan daya komputasi telah meningkat 60.000 kali lipat dalam 20 tahun terakhir dan mungkin mencapai 100.000 kali lipat dalam 10 tahun ke depan. sistem terintegrasi chiplet telah menjadi arah penting untuk terobosan dalam keterbatasan proses tingkat lanjut dan peningkatan daya komputasi berkinerja tinggi di era pasca-moore. sistem ini telah banyak digunakan dalam chip daya komputasi besar ai dan chip switching jaringan cluster daya komputasi ai.

dalam hal ini, xinhe semiconductor menyediakan platform eda simulasi multi-fisika terpadu untuk desain dan pengembangan sistem terintegrasi chiplet. platform ini mendukung pemodelan parametrik struktur interkoneksi dalam desain proses arus utama. kemampuan simulasinya 10 kali lebih cepat dibandingkan platform lain. platform ini hanya membutuhkan 1/20 memori. platform ini juga memiliki analisis protokol hbm/ucie bawaan untuk meningkatkan efisiensi simulasi ini telah memenangkan banyak penghargaan dari para pemimpin dalam dan luar negeri. produsen desain chip daya komputasi ai menggunakannya untuk membantu mempercepat penerapan produk sistem terintegrasi chiplet daya komputasi besar.

▲huang xiaobo, direktur pemasaran teknologi xinhe semiconductor

selama pelatihan model besar, infrastruktur jaringan menyumbang 30% dari biaya, sehingga menyoroti pentingnya kinerja jaringan. menurut zhu jundong, salah satu pendiri qimo dan wakil presiden produk dan solusi, jaringan telah menjadi penghambat kinerja komputasi cerdas. membangun jaringan ai memerlukan integrasi tiga jaringan, yaitu interkoneksi antar jaringan cluster, interkoneksi dalam kabinet, dan interkoneksi dalam kabinet. dan interkoneksi dalam chip.

cluster komputasi intelijen yang besar memerlukan interkoneksi berkinerja tinggi, dan modernisasi rdma dan chiplet telah menjadi teknologi utama. untuk mengoptimalkan rdma, seri inti akselerasi jaringan ndsa qimo didasarkan pada arsitektur streaming banyak inti yang dapat diprogram dan menggunakan mesin data berkinerja tinggi untuk mencapai aliran data berkinerja tinggi dan akselerasi data yang fleksibel. chiplet gpu link "ndsa-g2g" yang dipelopori oleh ge didasarkan pada infrastruktur ethernet dan melalui mesin data berkinerja tinggi dan teknologi antarmuka d2d, chip ini dapat mencapai bandwidth jaringan scale-up setinggi terabyte, dan kinerjanya sebanding dengan tolok ukur teknologi interkoneksi global.

▲zhu jundong, salah satu pendiri qimo dan wakil presiden produk dan solusi

alphawave adalah perusahaan yang menyediakan solusi desain ip, chiplet, dan asic untuk hpc, ai, dan aplikasi jaringan berkecepatan tinggi. guo dawei, direktur bisnis seniornya di kawasan asia-pasifik, menyampaikan bahwa sebagai respons terhadap masalah yang dihadapi selama transmisi data, produk ip alphawave memiliki tingkat kesalahan bit 2 kali lipat lebih rendah dibandingkan produk pesaing integrasi dan verifikasi, dan terintegrasi secara mendalam dengan ekosistem arm. mereka juga dapat memberikan dukungan siklus hidup penuh untuk soc pelanggan.

dalam hal chiplet, alphawave membantu pelanggan memperpendek siklus, mengurangi biaya, dan meningkatkan hasil dan kecepatan iterasi. kini alphawave telah membuat chiplet koneksi io multi-protokol pertama di industri, yang telah diluncurkan pada tahun ini. dalam hal chip yang disesuaikan, alphawave terutama berfokus pada proses di bawah 7nm, dan dapat menyelesaikan seluruh proses mulai dari spesifikasi hingga tape-out sesuai dengan kebutuhan pelanggan. saat ini, alphawave telah mencapai lebih dari 375 tape-out yang berhasil, dengan dppm kurang dari 25.

▲guo dawei, direktur bisnis senior wilayah alphawave asia pasifik

kesimpulan: kecerdasan hilir meningkat, dan chip ai menghadapi peluang bersejarah

menuju topik utama kecerdasan buatan secara umum, bentuk algoritme ai terus berubah, dan chip ai juga mengikuti perubahan tersebut. ketika kerikil kuno bertemu dengan kecerdasan mesin masa depan, teknologi dan kearifan teknik bergabung dan bertabrakan. chip ai dengan desain yang indah memasuki kelompok komputasi dan memasuki ribuan rumah tangga, mendukung evolusi kehidupan berbasis silikon.

mulai dari pusat komputasi cerdas dan penggerak cerdas hingga pc ai, ponsel ai, dan perangkat keras ai baru, tren kecerdasan hilir telah membawa gelombang baru peluang historis pada chip ai yang mendukung berbagai skenario berbeda. algoritme dan aplikasi ai generatif yang berkembang pesat terus membuka tantangan baru dalam hal daya komputasi. inovasi teknologi dan permintaan pasar mendorong perluasan pasar chip ai dan mendiversifikasi lanskap kompetitif chip ai.

pada tanggal 7 september, global ai chip summit 2024 akan terus menyampaikan informasi intensif: sesi khusus tentang inovasi arsitektur chip ai dan sesi khusus tentang chip ai edge/end-side akan diadakan di tempat utama, dan sesi khusus "2024 china's 20 perusahaan solusi klaster komputasi cerdas teratas" dan "2024 terdapat dua daftar" top 10 perusahaan chip ai yang sedang berkembang di tiongkok"; forum teknologi klaster komputasi cerdas dan forum inovasi chip komputasi risc-v tiongkok akan diadakan di sub-tempat tersebut; .