berita

Setelah isi minyak tanah, masukkan minyak goreng? AI dapat membedakannya! Akademisi dan pakar menekankan bahwa keamanan kecerdasan buatan harus melibatkan "orang-orang yang terlibat"

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Ringkasan:Kecerdasan buatan dan masyarakat manusia sebenarnya memiliki hubungan simbiosis, termasuk hubungan tambahan, interaksi manusia-komputer, hubungan antarmanusia, dan hubungan kompetitif.


Menurut laporan, kapal tanker tersebut mengisi tangki dengan minyak tanah, tidak membersihkan tangki, dan kemudian mengisinya dengan minyak goreng. Operasi "ekstensif" tersebut menantang kekhawatiran masyarakat akan keamanan pangan. "AI Eye" yang berbasis pada kecerdasan buatan mungkin dapat mengawasi pelanggaran tersebut pada waktu yang tepat.

“Menggunakan kamera yang ada dan yang baru ditambahkan di SPBU dan menggunakan mode analisis video cloud untuk mengidentifikasi perilaku selama proses bongkar muat, pengisian bahan bakar, bongkar muat, pengisian bahan bakar, bongkar muat, dan penambahan cairan, alarm, statistik, dan analisis tindakan abnormal untuk membangun kecerdasan Platform SPBU.” Pada tanggal 2, Konferensi Keamanan Internet ke-12 Shanghai AI Summit yang diadakan di China-Israel Innovation Park di Distrik Putuo mengungkapkan hal itu dengan menerapkan platform analisis cerdas video AI pada sumber daya cloud China Telecom dan menerapkannya dalam energi perusahaan, 300 analisis perilaku AI di area pembongkaran minyak menggunakan aliran video jalan raya memungkinkan identifikasi truk tangki, identifikasi alat pemadam kebakaran, deteksi produk minyak, dan deteksi pipa minyak.


Taman Inovasi Tiongkok-Israel (Shanghai).

[Penipuan AI deepfake melonjak 3000%]

Faktanya, model AI yang besar memberdayakan tata kelola sosial dalam jumlah besar, membantu memecahkan masalah penghidupan masyarakat dan meningkatkan rasa aman masyarakat. Wei Wenbo, wakil manajer umum departemen bisnis keluaran China Telecom Artificial Intelligence Technology Co., Ltd., memberikan contoh, seperti pengawasan katering cerdas untuk memastikan "dapur terang dan kompor terang", keamanan jalanan dan desa untuk merawat orang tua dan mencegah tenggelam, serta pengawasan cerdas terhadap penempatan sampah dan parkir kendaraan listrik. Dengan standarisasi tersebut, mengendarai sepeda listrik tanpa mengenakan helm pun dapat “membedakan dan membedakan dengan jelas”.

Namun, AI sendiri juga pasti mempunyai masalah keamanan. Mulai dari perubahan wajah AI hingga perubahan suara AI, “Laporan Keamanan Kecerdasan Buatan 2024” menunjukkan bahwa AI tidak hanya memperkuat ancaman keamanan jaringan yang ada, namun juga menimbulkan ancaman baru, yang memicu peningkatan eksponensial dalam insiden keamanan jaringan. Pada tahun 2023, penipuan pemalsuan mendalam berbasis AI akan meningkat sebesar 3.000%, dan jumlah email phishing berbasis AI akan meningkat sebesar 1.000%.

Liu Quan, akademisi asing dari Akademi Ilmu Pengetahuan Alam Rusia dan wakil kepala insinyur CCID Research Institute, mengutip survei yang dilakukan di antara para pemimpin industri TI pada model besar seperti ChatGPT, yang menunjukkan bahwa 71% responden percaya bahwa kecerdasan buatan generatif akan meningkatkan keamanan data perusahaan membawa risiko baru. Demi mencegah kebocoran data sensitif, perusahaan teknologi seperti Microsoft dan Amazon bahkan telah membatasi atau melarang karyawannya menggunakan alat kecerdasan buatan generatif.


KTT AI Shanghai.

["Gunakan cetakan untuk membuat cetakan" untuk memastikan keamanan dalam "Pertempuran Ratusan Model"]

Generasi multimodal, kemunculan model besar. Sejauh ini, di negara saya sendiri, jumlah model besar yang lolos registrasi ganda mencapai 117. Menurut statistik dari "Buku Putih Beijing tentang Penerapan Inovatif Model Besar dalam Industri Kecerdasan Buatan (2023)", pada Oktober tahun lalu, terdapat 254 pemasok model besar dengan parameter "1 miliar+" di negara saya. Saat ini, model skala besar dalam negeri dengan ratusan miliar parameter tersedia, dan jumlah neuron di otak manusia juga berada di kisaran 100 miliar. IDC memperkirakan pasar model besar AI di Tiongkok akan mencapai US$21,1 miliar pada tahun 2026.

Ketika kecerdasan buatan memasuki periode kritis untuk implementasi skala besar, risiko-risiko baru ini, mulai dari kebocoran privasi, diskriminasi algoritma hingga bias data, juga menimbulkan tantangan berat terhadap pengembangan kecerdasan buatan yang berkualitas tinggi. He Fan, chief product officer 360 Digital Intelligence Group, mengatakan bahwa di era model besar, penting untuk "menggunakan cetakan untuk membuat model" untuk memastikan keamanan, yang berarti menggunakan data besar keamanan yang terakumulasi dalam 20 tahun terakhir dan menambahkan pengetahuan ahli untuk melatih model besar keamanan tingkat tinggi.

Chen Xiaohang, wakil manajer umum Departemen Jaringan Informasi Cabang China Telecom Shanghai, juga mengatakan kepada reporter Liberation Daily Shangguan News bahwa dalam "Pertempuran Ratusan Model", model besar pada dasarnya adalah "kertas kosong" dan memerlukan "pendidikan" yang konstan. dan "pelatihan", jadi mereka harus mengontrol arah opini publik pada sumbernya dan menyaring informasi sampah dalam prosesnya untuk mencegah model besar "salah arah".


Konferensi Keamanan Internet ISC.

[Hubungan kompetitif antara manusia dan mesin membutuhkan “orang-orang yang terlibat”]

Seperti kita ketahui, sifat “kotak hitam” pada model AI membuat proses pengambilan keputusannya sulit dijelaskan, dan hal ini sangat penting dalam bidang berisiko tinggi seperti keuangan dan perawatan medis. Regulator dan klien industri sama-sama perlu memahami dasar pengambilan model untuk memastikan transparansi dan keadilan model penilaian kredit mereka. Pada saat yang sama, model AI itu sendiri mungkin memiliki kerentanan keamanan. Misalnya, peretas dapat menyerang melalui sampel yang bermusuhan, menyebabkan model menghasilkan keluaran yang salah pada masukan yang tampaknya normal, sehingga menyebabkan risiko keamanan.

Di mata Akademisi Liu Quan, karakteristik AI yang jelas merupakan "pedang bermata dua" telah membawa banyak manfaat dan tantangan besar bagi umat manusia. Kecerdasan buatan dan masyarakat manusia sebenarnya berada dalam hubungan simbiosis, termasuk hubungan tambahan, interaksi manusia-komputer, dan lain-lain. hubungan antarmanusia dan kompetitif. Memang benar bahwa dengan pesatnya perkembangan dari kecerdasan buatan yang lemah menjadi kecerdasan buatan yang kuat, 90% pekerjaan berawak dapat digantikan oleh kecerdasan buatan sebagai “pekerjaan tak berawak”. Dan 10% pekerja yang tidak mau berbaring harus memiliki data dalam jumlah besar dan kemampuan operasi kecerdasan buatan yang kuat.

Dalam film "The Wandering Earth 2", robot MOSS mengungkapkan konsep "Human In Loop" dan juga memiliki ide untuk "menghancurkan umat manusia". Hal ini semakin menggambarkan bahwa hanya iterasi kecerdasan buatan yang dipimpin manusia yang dapat membentuk sistem loop tertutup manusia-mesin. Termasuk jaminan keamanan AI, mesin tidak dapat bekerja tanpa campur tangan manusia kapan pun. Liu Quan mengatakan bahwa pada hakikatnya, kecerdasan buatan tidak dapat menggantikan cara berpikir manusia, juga tidak dapat sepenuhnya menggantikan manusia. Jika tidak, pengembangan AI mungkin kehilangan makna aslinya.