berita

Eksekutif Intel: Model AI secara bertahap akan berpindah dari cloud ke edge

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

·Waktu pemrosesan cloud diperpanjang, biaya transmisi data tinggi, dan ada kekhawatiran tentang keamanan data. Wakil Presiden Senior Intel Sachin Katti mengatakan bahwa AI sedang merambah ke edge, dan model-model besar mungkin secara bertahap berpindah dari cloud ke edge.


Sachin Katti, wakil presiden senior dan manajer umum Networking and Edge Group di Intel.

“Kami berharap AI akan diterapkan dan diterapkan lebih banyak di edge untuk memproses data lokal. Seiring waktu, model AI mungkin secara bertahap berpindah dari cloud ke edge pada tanggal 24 Juli, di Intel Network & Edge 2024 Pada Konferensi Industri Komputasi, Sachin Katti, wakil presiden senior dan manajer umum Divisi Jaringan dan Edge Intel, mengatakan bahwa AI saat ini sebagian besar berjalan di cloud. Karena perangkat edge menghasilkan data dalam jumlah besar secara lokal, biaya transmisi semua data ke cloud cukup tinggi ke komputasi edge adalah tren umum.

Keamanan data dan real-time mendorong AI dari cloud ke edge

Sachin Katti mengatakan bahwa manusia berada di era bantuan AI, dan AI membantu manusia bekerja lebih efisien. Setelah era bantuan AI, manusia akan memasuki era asisten AI. “Saat berkendara melalui restoran cepat saji, agen AI bisa menyediakan layanan pemesanan. Alur Kerja Perusahaan juga dapat diselesaikan dengan AI. Di masa depan, kita mungkin menemukan bahwa agen dapat berinteraksi satu sama lain, seperti halnya manusia bekerja sama untuk memberikan solusi tingkat departemen.”

Sachin Katti mengatakan bahwa pertumbuhan AI saat ini terutama terkonsentrasi di cloud, namun evolusi ke komputasi edge adalah tren umum. “Di masa lalu, AI yang kita bicarakan pada dasarnya adalah tentang visi mesin atau teknologi otomasi berbasis deret waktu. Namun kini edge AI telah berkembang secara bertahap dari visi mesin di edge hingga aplikasi edge seperti model bahasa besar dan AI generatif. Intel akan terus memberikan kemampuan yang relevan untuk mempercepat penerapan AI generatif dan model bahasa besar di edge.”

Selain persyaratan transmisi data edge, keamanan data dan kinerja real-time merupakan pertimbangan penting dalam mempromosikan AI dari cloud ke edge. Guo Wei, wakil presiden Intel Marketing Group dan manajer umum Intel China Network and Edge and Channel Data Center Division, mengatakan bahwa di satu sisi, perusahaan memiliki kekhawatiran tentang penempatan data di cloud; di sisi lain, komputasi edge membantu menyelesaikannya persyaratan waktu nyata.

“Pada dasarnya, lebih dari separuh pelanggan kami tahun ini sedang menjajaki solusi implementasi berdasarkan model edge besar.” Chen Wei, Wakil Presiden Intel dan General Manager Divisi Jaringan dan Edge Tiongkok, mengatakan bahwa dari perspektif implementasi komputasi edge, ukuran modelnya tidak Semakin besar semakin baik, tetapi harus sesuai dengan kebutuhan sebenarnya dari skenario aplikasi pasar. “Penerapan komputasi edge perlu mempertimbangkan banyak faktor, seperti latensi, ketersediaan, optimalisasi data mikro yang dapat disesuaikan, dan keamanan informasi. , dll."

Penyetelan tepi dibatasi oleh volume data

“Karakteristik edge adalah fragmentasi.” Zhang Yu, chief technology officer Divisi Jaringan dan Edge Intel China dan senior chief AI engineer Intel, mengatakan bahwa pengguna yang berbeda memiliki persyaratan yang berbeda untuk daya komputasi dan kinerja. Tantangan umum dalam edge tuning adalah keterbatasan volume data. Jumlah data yang benar-benar dapat digunakan oleh sekolah atau pabrik untuk pelatihan sangatlah kecil. Data dari perusahaan dan sekolah yang berbeda juga berbeda. Pabrik produksi suku cadang mobil dan pabrik permesinan menghadapi masalah yang berbeda. Cacat produk tidak dapat dideteksi dengan model terpadu, dan model tersebut harus dilatih dengan data khusus perusahaan.

Pada saat yang sama, Zhang Yu berkata, "Pelatihan memerlukan pelabelan agar mesin mengetahui apa yang Anda perhatikan. Orang yang benar-benar mengoperasikan peralatan fungsional AI di sebuah pabrik sering kali adalah pekerja di jalur produksi. Bagaimana bisa mereka memiliki energi untuk memberi label selama proses produksi?" ?” Oleh karena itu, metode anotasi otomatis perlu digunakan selama penyetelan tepi untuk menyelesaikan anotasi ketika jumlah datanya sedikit. “Di edge, pengguna akhir lebih memilih penerapan bisnis, bukan solusi teknis. Persyaratan pengguna terhadap layanan adalah kenyamanan, kemudahan penerapan, dan kemudahan manajemen setelah penerapan. Hal ini sering kali menjadi kendala bagi pelanggan.”

Guo Wei mengatakan bahwa hanya mengandalkan pelatihan model saja tidak cukup untuk memecahkan masalah industri praktis, dan permintaan untuk meningkatkan kemampuan penalaran sangat jelas terlihat pada tahun ini. Penerapan model besar pasti akan melibatkan distribusi daya komputasi yang seimbang dari ujung ke edge dan kemudian ke cloud. "Jika ini hanya aplikasi standar model besar vertikal, model besar sebagian besar akan diterapkan di cloud. Namun, karena kebutuhan akan implementasi industri, kekuatan komputasi AI mau tidak mau akan didorong ke cloud.” Distribusi tepi dan sisi akhir.”

Sachin Katti mengatakan bahwa beban kerja utama di edge adalah inferensi dan pembelajaran berkelanjutan. Kadang-kadang setelah penerapan di edge, ditemukan bahwa efeknya tidak sebaik yang diharapkan, atau karena model tersebut berjalan selama jangka waktu tertentu, model aslinya perlu disempurnakan.

Berapa banyak daya komputasi yang dibutuhkan di edge? Sachin Katti mengatakan terdapat korelasi positif antara daya komputasi dan konsumsi energi. Peralatan yang dikerahkan di edge mengonsumsi energi sekitar 200 watt, penerapan cloud menghabiskan 1-2 kilowatt, dan konsumsi energi rak satu lapis di pusat data mungkin mencapai 100 kilowatt. Jika konsumsi energi seluruh data center dijumlahkan bisa mencapai 50-100 gigawatt. Dalam kasus di mana daya komputasi atau konsumsi energi tinggi, efisiensi pendinginan dan kapasitas pendinginan merupakan variabel utama yang harus dipertimbangkan. Karena data skala besar dan daya komputasi akan menghasilkan banyak panas, "Saat ini kami menggunakan teknologi pendingin cair untuk mendinginkan armada secara efektif. Teknologi pendingin cair yang ada telah berhasil mendinginkan armada 100 kilowatt, dan diharapkan akan diperluas hingga 300 kilowatt di masa depan. Oleh karena itu, keterbatasan Faktor lain yang sangat penting dalam daya komputasi adalah apakah Anda memiliki cukup kemampuan untuk secara efektif mendinginkan lingkungan secara keseluruhan.”