berita

Halusinasi AI tidak bisa dihindari, bagaimana cara mengatasinya

2024-08-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Zhang HaiDengan pesatnya perkembangan teknologi kecerdasan buatan (AI), “Ilusi AI”, yaitu kesalahan atau ilusi dalam pemrosesan dan pembangkitan informasi oleh kecerdasan buatan, telah menjadi masalah yang tidak dapat diabaikan. Pada tahun 2023, "halusinasi" menjadi kata terbaik tahun ini di Kamus Cambridge dan Dictionary.com. Menurut Dictionary.com, penelusuran kata "halusinasi" meningkat sebesar 46% pada tahun 2023 dibandingkan tahun sebelumnya. Selain arti asli "halusinasi" dalam Kamus Cambridge, "melihat, mendengar, merasakan atau mencium sesuatu yang tidak ada, biasanya karena suatu kondisi medis atau karena Anda telah meminum obat." Halusinasi AI menghasilkan pesan kesalahan".Makalah baru-baru ini yang berjudul "Perilaku Mesin" di majalah "Nature" menunjukkan bahwa kecerdasan buatan telah ada di mana-mana dalam masyarakat manusia saat ini. Algoritme pemeringkatan berita akan memengaruhi informasi yang dilihat orang, algoritme konsumsi akan memengaruhi barang konsumsi yang dibeli orang, dan algoritme pemanggilan taksi. akan mempengaruhi Pola perjalanan dan algoritme rumah pintar kita akan memengaruhi kehidupan keluarga kita. Di bidang seperti hukum dan kedokteran, dampak kecerdasan buatan bahkan lebih besar. Kecerdasan buatan memungkinkan mesin untuk berpikir dan berperilaku seperti manusia. Akibatnya, mesin semakin mempengaruhi struktur masyarakat manusia. Mesin membentuk perilaku manusia, dan manusia juga membentuk perilaku mesin. Cara manusia dan mesin berkolaborasi akan mempunyai dampak yang signifikan dan luas terhadap bentuk sosial di masa depan.Di era kecerdasan buatan, halusinasi AI sudah menjadi fenomena umum. Dari kemungkinan kesalahan penilaian pada mobil self-driving hingga kesalahan interpretasi instruksi oleh asisten pintar hingga kesalahan diagnosis oleh alat diagnostik medis, ilusi AI hadir di setiap sudut kehidupan kita sehari-hari. Pada tahun 2024, mesin pencari Google meluncurkan layanan pencarian kecerdasan buatan: Ikhtisar AI, yang memberikan jawaban yang dihasilkan AI. Niat awalnya adalah untuk meningkatkan pengalaman pengguna, tetapi pengguna segera menemukan bahwa tinjauan AI memberikan banyak jawaban yang keterlaluan, seperti menyarankan penggunaan lem untuk menempelkan pizza dan makan batu setiap hari untuk mendapatkan nutrisi, dll., menyebabkan Google untuk segera mematikan beberapa fungsinya.Dari sudut pandang ilmuwan kecerdasan buatan, halusinasi AI pada dasarnya tidak dapat dihindari karena keterbatasan teknis dan kekurangan kognisi manusia. Meskipun teknisi bekerja keras untuk meningkatkan akurasi dan keandalan AI, ilusi AI masih sering terjadi dan sulit dihilangkan sepenuhnya karena faktor-faktor seperti data yang tidak lengkap, keterbatasan algoritma, dan lingkungan interaktif yang kompleks.Mekanisme halusinasi AI melibatkan banyak aspek. Pertama-tama, bias data adalah salah satu alasan utama. Jika data pelatihan AI kurang beragam atau memiliki bias sistematis, hasil keluarannya mungkin hanya halusinasi. Kedua, algoritme AI saat ini, terutama yang berbasis statistik, tidak dapat beradaptasi dengan sempurna terhadap situasi baru yang belum pernah terjadi sebelumnya, sehingga dapat menyebabkan penilaian yang salah. Ketiga, keterbatasan kognitif desainer manusia juga merupakan masalah utama. Bias subjektif dari desainer dan pelatih mungkin secara tidak sengaja dimasukkan ke dalam sistem AI, sehingga memengaruhi pengambilan keputusan. Terakhir, lingkungan interaktif tempat sistem AI beroperasi penuh dengan variabel. Faktor lingkungan yang kompleks dan berubah sering kali melebihi kemampuan pemrosesan sistem AI, yang menyebabkan timbulnya halusinasi AI.Bagaimana cara menghadapi ilusi AI yang ada di mana-mana dan tak terhindarkan? Pertama, peningkatan kualitas dan keragaman data merupakan hal yang mendasar. Dengan meningkatkan luas dan kedalaman data pelatihan, bias data dapat dikurangi dan kemampuan generalisasi sistem AI dapat ditingkatkan. Kedua, mengoptimalkan desain algoritme dan meningkatkan ketahanan serta kemampuan adaptasinya dapat memungkinkan sistem AI mengatasi situasi baru dengan lebih baik. Ketiga, meningkatkan pendidikan dan kesadaran pengguna juga penting. Membantu pengguna memahami dengan benar kemampuan dan keterbatasan AI dapat secara efektif mengurangi ilusi yang disebabkan oleh kesalahpahaman. Selain itu, menetapkan norma etika dan mekanisme pengawasan untuk memastikan bahwa pengembangan dan penerapan AI mematuhi standar etika dan hukum juga sama pentingnya untuk mengurangi terjadinya halusinasi AI. Terakhir, kolaborasi interdisipliner memainkan peran penting dalam menangani halusinasi AI. Insinyur, ilmuwan data, psikolog, ahli etika, dan pakar hukum harus bersama-sama berpartisipasi dalam proses desain dan evaluasi sistem AI, dan bersama-sama menyelesaikan masalah ilusi AI dari perspektif profesional di bidangnya masing-masing.Di era kecerdasan buatan, halusinasi AI merupakan masalah yang kompleks, umum, dan tak terhindarkan, yang mengharuskan kita menerapkan strategi multidimensi dan multilevel untuk mengatasinya, sehingga meminimalkan dampak negatif halusinasi AI. “Guidelines for Generative Artificial Intelligence in Education and Research” yang dirilis UNESCO pada tahun 2023 merekomendasikan penetapan usia minimum penggunaan alat kecerdasan buatan di kelas adalah 13 tahun. Open AI merekomendasikan bahwa anak-anak di bawah usia 13 tahun dilarang menggunakan kecerdasan buatan generatif, dan anak-anak berusia antara 13 dan 18 tahun harus menggunakannya di bawah bimbingan wali.Trusted Media Summit akan diadakan di Singapura pada tahun 2023 untuk berbagi langkah-langkah yang diambil oleh berbagai negara untuk meningkatkan literasi media generasi muda. Misalnya, "SQUIZ KIDS", sebuah kegiatan kesejahteraan masyarakat yang diluncurkan di luar negeri berdasarkan situs web dan podcast dan menargetkan siswa sekolah dasar untuk meningkatkan literasi media, membantu menumbuhkan kemampuan generasi muda untuk membedakan informasi yang salah dan informasi palsu yang muncul di Internet. Ini terutama terdiri dari tiga langkah: BERHENTI ketika terkena informasi jaringan, pikirkan (BERPIKIR), dan terakhir periksa pasangan (PERIKSA) untuk memastikan apakah pasangan tersebut konsisten dengan sumber informasi yang dapat dipercaya. Dengan mengumpulkan pengetahuan dan keterampilan dari berbagai bidang untuk mengidentifikasi masalah dan menemukan solusi secara lebih komprehensif, kita dapat menantikan hadirnya masyarakat kecerdasan buatan yang lebih cerdas, aman, dan andal. (Penulis adalah profesor di School of Media Science di Northeast Normal University dan direktur Pusat Rekayasa Inovasi Terpadu Pendidikan dan Kecerdasan Buatan Provinsi Jilin) ​​▲
Laporan/Umpan Balik