berita

Konferensi Keamanan Internet ke-12 KTT Keamanan Digital diadakan

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Sumber : Pos dan Telekomunikasi Rakyat

Pada tanggal 31 Juli, Konferensi Keamanan Internet ke-12 (ISC.AI 2024) KTT Keamanan Digital diadakan di Beijing. Dengan mengusung tema "Membangun Model Keamanan Besar dan Memimpin Revolusi Industri Keamanan", pertemuan puncak ini menyerukan industri untuk menggunakan model besar guna membentuk kembali sistem keamanan dan melindungi perkembangan ekonomi digital yang stabil. Konferensi ini mempertemukan sejumlah akademisi dan pakar, serta pemimpin bisnis dalam dan luar negeri seperti 360, Huawei, dan Microsoft, untuk melakukan analisis mendalam terhadap tantangan dan solusi keamanan yang ditimbulkan oleh perkembangan teknologi kecerdasan buatan. , dan untuk bersama-sama menjajaki jalur baru bagi pengembangan keamanan digital yang didorong oleh model keamanan besar.

Masalah keselamatan dengan kecerdasan buatan tidak dapat diabaikan, dan industri serta penelitian perlu bekerja sama untuk mencari solusi baru. Penerapan teknologi kecerdasan buatan secara luas mendorong transformasi dan peningkatan semua lapisan masyarakat, dan pada saat yang sama memberikan dorongan yang kuat ke dalam pengembangan industri keamanan. Wu Shizhong, akademisi dari Chinese Academy of Engineering, mengatakan bahwa masalah keamanan baru yang disebabkan oleh teknologi AI telah menjadi kenyataan, dan industri keamanan akan segera memasuki era baru yang didorong oleh AI. Namun penelitian keamanan model besar bisa dikatakan baru saja dimulai. Baik itu penelitian keamanan atau industri keamanan, kita harus mengikuti kemajuan teknologi dan inovasi aplikasi untuk melayani dan memastikan perkembangan yang baik.

“Saat ini, terdapat ketidakseimbangan yang serius antara tanggung jawab dan risiko keamanan dalam sistem aplikasi AI.” Wu Jiangxing, akademisi dari Chinese Academy of Engineering dan direktur National Digital Switching System Engineering Research Center (NDSC), menekankan dilema yang dihadapi oleh AI. sistem AI saat ini. Dia mengusulkan agar masalah keamanan sistem aplikasi AI dapat ditemukan atau diperbaiki berdasarkan arsitektur keamanan endogen. Sistem aplikasi AI harus berisi struktur keamanan endogen dengan keragaman yang diperlukan dan aksioma yang relatif benar, sehingga hasil yang relatif kredibel dapat ditemukan dalam proses yang tidak dapat dipercaya. Di era kecerdasan, penting untuk memilih jalur teknis yang tepat untuk mencapai sistem aplikasi AI yang lebih aman.

Dengan pesatnya perkembangan teknologi kecerdasan buatan, semua industri dan produk sedang diubah, dan industri keamanan juga menghadapi revolusi. Zhou Hongyi, pendiri 360 Group dan ketua Konferensi ISC, mengatakan bahwa inti dari penggunaan AI untuk membentuk kembali keselamatan adalah menjadikan keselamatan sebagai "berkendara otonom". 360 adalah yang pertama meluncurkan model keselamatan besar, menyediakan kemampuan standar model besar gratis bagi pengguna yang membeli produk standar 360, mewujudkan inklusivitas model berskala besar dan perubahan produktivitas kualitatif baru dalam industri keamanan. Sebagai produsen dengan keunggulan ganda yaitu kemampuan keamanan digital dan teknologi AI, 360 didasarkan pada teknologi dasar model besar full-stack, basis pengetahuan keamanan terbesar di dunia, tim pakar keamanan senior terbesar di Asia, dan cakupan penuh multi-domain. dan kemampuan praktis yang kuat. Dengan kemampuan skenario keamanannya, perusahaan ini telah menciptakan model keamanan domestik pertama "Model Keamanan 360" dan menerapkannya di banyak skenario bisnis seperti terminal, operasi keamanan, dan layanan keamanan. Saat ini, rangkaian lengkap produk keamanan 360 memiliki kemampuan model keamanan besar yang terintegrasi, dan memberikan kemampuan standar model besar secara gratis kepada semua pengguna yang membeli produk standar 360.

Ketika kecerdasan buatan generatif mendorong pengembangan AI ke tahap baru, tata kelola AI juga menjadi isu yang menonjol. Gong Ke, direktur Laboratorium Haihe Komputasi Canggih dan Perangkat Lunak Kritis (Xinchuang) dan direktur eksekutif Institut Penelitian Strategi Pengembangan Kecerdasan Buatan Generasi Baru Tiongkok, menyatakan dalam pidatonya bahwa tata kelola AI harus mengikuti tiga prinsip pembangunan yang bermanfaat, melayani masyarakat dan berdasarkan etika. Memahami dengan jelas kekurangan dari teknologi itu sendiri, serta risiko penyalahgunaan, penyalahgunaan, dan penyalahgunaan teknologi AI oleh manusia. Beliau menekankan bahwa untuk mencegah AI melakukan kejahatan, perlu ditetapkan standar etika yang jelas, meningkatkan transparansi, memperkuat akuntabilitas, menyempurnakan undang-undang dan peraturan, dan membangun mekanisme keselamatan. Selain itu, kita harus mematuhi inovasi terbuka dan mengembangkan ekosistem AI yang aman dan terkendali berdasarkan kepercayaan dan inovasi. (Su Deyue)