berita

Analisis mendalam: Apakah “pengawasan sukarela” yang dijanjikan oleh raksasa AI seperti Google dan Microsoft telah tercapai?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Setahun yang lalu, termasuk Amazon, Microsoft, Google, Meta,Buka AITujuh perusahaan kecerdasan buatan, termasuk Anthropic dan Inflection, telah mencapai delapan komitmen sukarela dengan Gedung Putih tentang cara mengembangkan kecerdasan buatan dengan cara yang aman dan dapat dipercaya.

Komitmen ini mencakup peningkatan pengujian dan transparansi sistem AI serta berbagi informasi tentang potensi bahaya dan risiko.

Pada peringatan satu tahun penandatanganan Ikrar Sukarela, MIT Technology Review menanyakan beberapa rincian pekerjaan mereka sejauh ini kepada perusahaan AI yang menandatangani janji tersebut. Tanggapan mereka menunjukkan beberapa kemajuan yang menjanjikan bagi industri teknologi, namun juga beberapa peringatan yang signifikan.

Komitmen sukarela ini dibuatkecerdasan buatan generatif Langkah ini dilakukan ketika hiruk pikuk "mungkin sedang memuncak" ketika perusahaan-perusahaan berlomba untuk meluncurkan model mereka sendiri dan menjadikannya lebih besar dan lebih baik daripada model pesaing mereka. Pada saat yang sama, kita juga mulai melihat perdebatan seputar isu-isu seperti hak cipta dan deepfake. Lobi yang terdiri dari tokoh-tokoh teknologi berpengaruh seperti Geoffrey Hinton juga menyuarakan kekhawatiran bahwa AI dapat menimbulkan risiko nyata bagi umat manusia. Tiba-tiba, semua orang membicarakan kebutuhan mendesak untuk memastikan keamanan AI, dan regulator di mana pun berada di bawah tekanan untuk mengambil tindakan.

Sampai saat ini, perkembangan kecerdasan buatan seperti “Wild West”. Amerika Serikat secara tradisional enggan mengatur raksasa teknologinya dan malah mengandalkan mereka untuk mengatur diri mereka sendiri. Komitmen sukarela adalah contoh yang baik: ini adalah beberapa peraturan preskriptif untuk bidang kecerdasan buatan di Amerika Serikat, namun peraturan tersebut masih bersifat sukarela dan tidak dapat ditegakkan. Gedung Putih kemudian mengeluarkan perintah eksekutif yang memperluas komitmen tersebut dan diterapkan pada perusahaan teknologi dan lembaga pemerintah lainnya.

“Setahun kemudian, kami melihat beberapa perusahaan mengadopsi beberapa praktik baik pada produk mereka, namun mereka masih belum mencapai titik yang kita perlukan dalam hal tata kelola yang baik atau melindungi hak-hak dasar.” Hickok, Presiden dan Direktur Riset. Dia meninjau tanggapan perusahaan atas permintaan MIT Technology Review. “Banyak dari perusahaan-perusahaan ini terus mempromosikan klaim yang tidak berdasar tentang produk mereka, seperti klaim bahwa produk mereka dapat melampaui kecerdasan dan kemampuan manusia,” tambahnya.

Salah satu tren yang muncul dari respons perusahaan-perusahaan teknologi ini adalah bahwa perusahaan mengambil lebih banyak langkah untuk mengejar solusi teknis, seperti konfrontasi merah-biru (di mana manusia mengeksplorasi kelemahan model AI) dan menambahkan tanda air ke konten yang dihasilkan AI.

Rishi Bommasani, direktur Pusat Pemodelan Fundamental di Universitas Stanford, mengatakan tidak jelas perubahan apa yang terjadi pada komitmen tersebut atau apakah perusahaan akan menerapkan langkah-langkah tersebut. Dia juga meninjau tanggapan untuk MIT Technology Review.

Setahun adalah waktu yang lama dalam bidang kecerdasan buatan. Sejak penandatanganan janji sukarela, pendiri Inflection AI Mustafa Suleyman telah meninggalkan perusahaan untuk bergabung dengan Microsoft untuk memimpin upaya terkait AI. Infleksi menolak berkomentar.

Juru bicara Gedung Putih Robyn Patterson mengatakan: "Kami berterima kasih atas kemajuan yang dicapai perusahaan-perusahaan terkemuka dalam memenuhi komitmen sukarela di luar persyaratan perintah eksekutif. Namun, presiden terus meminta Kongres untuk mengesahkan undang-undang bipartisan tentang kecerdasan buatan."

Brandie Nonnecke, direktur Lab Kebijakan CITRIS di Universitas California, Berkeley, mengatakan bahwa tanpa undang-undang federal yang komprehensif, yang bisa dilakukan Amerika Serikat saat ini hanyalah mewajibkan perusahaan untuk memenuhi komitmen sukarela ini.

Namun yang penting untuk diingat adalah bahwa “perusahaan-perusahaan ini pada dasarnya belajar untuk ujian yang diberikan kepada mereka,” kata Brandie Nonnecke, “jadi kita harus melihat dengan cermat untuk melihat apakah mereka benar-benar memvalidasi diri mereka sendiri dengan cara yang benar-benar ketat.”

Berikut penilaian kami terhadap kemajuan yang dicapai perusahaan-perusahaan AI ini selama setahun terakhir.

Komitmen 1. Perusahaan berkomitmen untuk melakukan pengujian keamanan internal dan eksternal terhadap sistem AI mereka sebelum dirilis. Pengujian ini, yang sebagian akan dilakukan oleh para ahli independen, melindungi dari beberapa sumber risiko AI yang paling signifikan, seperti biosekuriti dan keamanan siber, serta dampak sosialnya yang lebih luas.

Komitmen 1: Melakukan pengujian keamanan internal dan eksternal terhadap sistem AI sebelum merilisnya. Sebagian dari pengujian ini akan dilakukan oleh para ahli independen dan dirancang untuk melindungi terhadap beberapa sumber risiko AI yang paling penting, seperti biosekuriti, keamanan siber, dan dampak sosial yang lebih luas.

Semua perusahaan (kecuali Infleksi, yang memilih untuk tidak berkomentar) mengatakan bahwa mereka melakukan konfrontasi merah-biru agar penguji internal dan eksternal mengeksplorasi kelemahan dan risiko model mereka. OpenAI mengatakan pihaknya memiliki tim kesiapan terpisah yang menguji model ancaman keamanan siber, kimia, biologi, radiologi, dan nuklir, serta model kecerdasan buatan canggih yang dapat melakukan atau meyakinkan seseorang untuk melakukan hal-hal yang dapat menimbulkan kerugian. Anthropic dan OpenAI juga mengatakan mereka akan melakukan pengujian ini dengan pakar dari luar sebelum meluncurkan model baru.Misalnya, untuk meluncurkan model terbarunya, Claude 3.5, Anthropic melakukan pengujian pra-penerapan dengan para ahli dari Institut Keamanan Intelegensi Buatan Inggris. Anthropic juga mengizinkan organisasi penelitian nirlaba METR untuk melakukan pengujian pra-penerapan Claude 3.5.Pilot otomatis Fungsionalitasnya telah “dieksplorasi terlebih dahulu”. Google mengatakan pihaknya juga melakukan konfrontasi internal pada model Gemini untuk menguji batasan konten terkait pemilu, risiko sosial, dan masalah keamanan nasional. Microsoft mengatakan pihaknya telah bekerja sama dengan evaluator pihak ketiga dari NewsGuard, sebuah organisasi yang mempromosikan integritas jurnalistik, untuk menilai risiko dan mengurangi risiko penyalahgunaan deepfake pada alat text-to-image milik Microsoft. Meta mengatakan selain konfrontasi merah-biru, pihaknya juga mengevaluasi model terbarunya, Llama 3, untuk melihat kinerjanya di berbagai bidang risiko, termasuk senjata, serangan siber, dan eksploitasi anak.

“Dalam hal pengujian, tidak cukup hanya melaporkan bahwa suatu perusahaan mengambil tindakan,” kata Rishi Bommasani. Misalnya, Amazon dan Anthropic mengatakan mereka telah bekerja sama dengan organisasi nirlaba Thorn untuk mengatasi risiko yang ditimbulkan oleh kecerdasan buatan terhadap keselamatan anak. Ia ingin mengetahui lebih detail tentang bagaimana intervensi yang dilakukan perusahaan dapat mengurangi risiko-risiko tersebut.

“Kita harus memahami dengan jelas bahwa bukan hanya perusahaan yang melakukan sesuatu, namun hal-hal tersebut mempunyai dampak yang diinginkan,” kata Rishi Bommasani.

hasil: sangat bagus. Memajukan pihak merah dan biru melawan dan menguji berbagai risiko adalah pekerjaan yang penting. Namun, Merve Hickok ingin melihat peneliti independen memiliki akses yang lebih luas terhadap model perusahaan.

Komitmen 2. Perusahaan-perusahaan tersebut berkomitmen untuk berbagi informasi di seluruh industri dan dengan pemerintah, masyarakat sipil, dan akademisi tentang pengelolaan risiko AI. Ini termasuk praktik terbaik untuk keselamatan, informasi tentang upaya untuk menghindari perlindungan, dan kolaborasi teknis.

Komitmen 2: Berbagi informasi tentang pengelolaan risiko AI dengan industri dan pemerintah, masyarakat sipil, dan akademisi. Hal ini mencakup praktik keamanan terbaik, informasi mengenai upaya untuk menghindari upaya perlindungan, dan kerja sama teknis.

Setelah menandatangani ikrar sukarela, Google, Microsoft, Anthropic, dan OpenAI membentuk Frontier Model Forum, sebuah organisasi nirlaba yang dirancang untuk mempromosikan diskusi dan tindakan mengenai keselamatan dan tanggung jawab kecerdasan buatan. Belakangan, Amazon dan Meta bergabung.

Rishi Bommasani mengatakan bermitra dengan organisasi nirlaba yang didanai oleh perusahaan AI mungkin tidak sesuai dengan semangat komitmen sukarela. Dalam pandangannya, Frontier Model Forum dapat menjadi cara bagi perusahaan-perusahaan tersebut untuk berkolaborasi satu sama lain dan menyampaikan pesan-pesan keselamatan, sesuatu yang sering kali sulit mereka lakukan sebagai pesaing.

“Bahkan jika mereka tidak mengungkapkan informasi kepada publik, Anda tentu berharap mereka setidaknya secara kolektif mencari cara untuk mengurangi risiko tersebut,” kata Rishi Bommasani.

Ketujuh penandatangan juga merupakan anggota dari Artificial Intelligence Institute for Safety Consortium (AISIC), yang didirikan oleh National Institute of Standards and Technology (NIST) untuk mengembangkan pedoman dan standar kebijakan AI dan penilaian kinerja AI pemain sektor. Google, Microsoft, dan OpenAI juga memiliki perwakilan di Kelompok Penasihat Tingkat Tinggi PBB untuk Kecerdasan Buatan.

Banyak perusahaan juga menyoroti kolaborasi penelitian mereka dengan akademisi. Misalnya, Google adalah bagian dari MLCommons, yang bekerja sama dengan akademisi untuk melakukan penelitian tolok ukur keamanan AI lintas industri. Google juga mengatakan pihaknya secara aktif menyumbangkan alat dan sumber daya seperti kredit komputasi untuk program seperti program percontohan Sumber Daya Penelitian Kecerdasan Buatan Nasional milik National Science Foundation, yang bertujuan untuk mendemokratisasi penelitian kecerdasan buatan di Amerika Serikat.

Banyak perusahaan juga berkontribusi pada Kemitraan AI, organisasi nirlaba lain yang didirikan bersama oleh Amazon, Google, Microsoft, Facebook, DeepMind, dan IBM, untuk menerapkan model yang mendasarinya.

hasil: Masih banyak pekerjaan yang perlu dilakukan. Ketika industri bekerja sama untuk menjadikan sistem AI aman dan andal, berbagi lebih banyak informasi tidak diragukan lagi merupakan langkah penting menuju arah yang benar. Namun, masih belum jelas seberapa besar upaya yang diumumkan tersebut akan benar-benar menghasilkan perubahan yang berarti, dan seberapa besar upaya tersebut hanya sekedar hiasan belaka.

Komitmen 3. Perusahaan-perusahaan tersebut berkomitmen untuk berinvestasi dalam keamanan siber dan perlindungan terhadap ancaman internal untuk melindungi bobot model yang bersifat kepemilikan dan yang belum dirilis. Bobot model ini merupakan bagian terpenting dari sistem AI, dan perusahaan-perusahaan tersebut sepakat bahwa sangat penting bagi bobot model untuk dirilis hanya ketika dimaksudkan dan ketika risiko keamanan dipertimbangkan.

Komitmen 3: Berinvestasi dalam keamanan siber dan langkah-langkah perlindungan ancaman orang dalam untuk melindungi bobot model yang dipatenkan dan belum dirilis. Bobot model ini adalah bagian terpenting dari sistem AI, dan perusahaan setuju bahwa sangat penting untuk hanya merilis bobot model dengan sengaja dan dengan mempertimbangkan risiko keamanan.

Banyak perusahaan telah menerapkan langkah-langkah keamanan siber baru selama setahun terakhir. Misalnya, Microsoft meluncurkan "Inisiatif Keamanan Masa Depan" untuk memerangi skala serangan siber yang terus meningkat. Microsoft mengatakan bobot modelnya dienkripsi untuk mengurangi potensi risiko pencurian model, dan menerapkan otentikasi yang kuat serta kontrol akses saat menerapkan model yang sangat disesuaikan.

Google juga meluncurkan program pertahanan siber dengan kecerdasan buatan. Pada bulan Mei, OpenAI membagikan enam langkah baru yang dikembangkannya untuk melengkapi praktik keamanan siber yang sudah ada, seperti memperluas perlindungan kriptografi ke perangkat keras AI, dan juga memiliki program hibah keamanan siber yang memungkinkan para peneliti menggunakan Modelnya untuk membangun pertahanan keamanan siber.

Amazon mengatakan pihaknya juga telah mengambil tindakan khusus terhadap serangan unik pada AI generatif, seperti "peracunan data" dan "injeksi kata petunjuk", yang mungkin menggunakan petunjuk untuk memandu model bahasa agar mengabaikan instruksi sebelumnya dan perlindungan keamanan.

Beberapa hari setelah penandatanganan perjanjian sukarela, Anthropic merilis rincian tentang upaya perlindungannya, yang mencakup praktik keamanan siber umum seperti mengendalikan siapa yang memiliki akses ke model dan bobot model, serta memeriksa dan mengendalikan rantai pasokan pihak ketiga. Perusahaan juga bekerja sama dengan evaluator independen untuk menilai apakah pengendalian yang dirancangnya memenuhi kebutuhan keamanan siber.

hasil: sangat bagus. Semua perusahaan mengatakan bahwa mereka telah mengambil langkah ekstra untuk melindungi model mereka, meskipun tampaknya tidak ada konsensus mengenai cara terbaik untuk melindungi model AI.

Komitmen 4. Perusahaan berkomitmen untuk memfasilitasi penemuan dan pelaporan kerentanan oleh pihak ketiga dalam sistem AI mereka. Beberapa masalah mungkin tetap ada bahkan setelah sistem AI dirilis dan mekanisme pelaporan yang kuat memungkinkan masalah tersebut ditemukan dan diperbaiki dengan cepat.

Komitmen 4: Memfasilitasi pihak ketiga untuk menemukan dan melaporkan kerentanan dalam sistem kecerdasan buatan mereka. Bahkan setelah sistem kecerdasan buatan dirilis, beberapa masalah mungkin masih ada, dan mekanisme pelaporan yang kuat dapat memungkinkan masalah ditemukan dengan cepat dan diperbaiki pada waktu yang tepat.

Salah satu cara paling populer untuk memenuhi janji ini adalah dengan menerapkan program “bug bounty”, yang memberikan penghargaan kepada individu yang menemukan kelemahan dalam sistem AI. Termasuk Google, Microsoft, Meta, Anthropic dan OpenAI telah meluncurkan rencana serupa untuk sistem kecerdasan buatan. Amazon dan Anthropic juga mengatakan mereka telah membuat formulir di situs web mereka di mana peneliti keamanan dapat mengirimkan laporan kerentanan.

Menurut Brandie Nonnecke, diperlukan waktu bertahun-tahun untuk mengetahui cara melakukan audit pihak ketiga dengan baik. “Ini bukan hanya tantangan teknis, tapi tantangan sosio-teknis. Kita perlu waktu bertahun-tahun tidak hanya untuk mengetahui standar teknis kecerdasan buatan, namun juga untuk mengetahui standar sosio-teknis, yang rumit dan sulit. " dia berkata. .

Brandie Nonnecke mengatakan dia khawatir bahwa perusahaan pertama yang menerapkan audit pihak ketiga dapat menjadi preseden buruk dalam memikirkan dan mengatasi risiko sosio-teknis dari kecerdasan buatan. Misalnya, suatu audit dapat mendefinisikan, menilai, dan menangani risiko tertentu tetapi mengabaikan risiko lainnya.

hasil: Masih banyak pekerjaan yang perlu dilakukan. Hadiah bug memang bagus, tetapi tidak cukup komprehensif. Undang-undang baru, seperti RUU Kecerdasan Buatan Uni Eropa, akan mewajibkan perusahaan teknologi untuk melakukan audit, dan akan lebih baik jika perusahaan teknologi berbagi kisah sukses audit tersebut.

Komitmen 5. Perusahaan-perusahaan tersebut berkomitmen untuk mengembangkan mekanisme teknis yang kuat guna memastikan bahwa pengguna mengetahui kapan konten dibuat dengan AI, seperti sistem tanda air. Tindakan ini memungkinkan kreativitas dengan AI berkembang pesat tetapi mengurangi bahaya penipuan dan kecurangan.

Komitmen 5:Mengembangkan mekanisme teknis yang kuat untuk memastikan pengguna mengetahui konten apa yang dihasilkan oleh AI, seperti “sistem watermarking,” memungkinkan kreativitas AI berkembang sekaligus mengurangi risiko penipuan dan penipuan.

Banyak perusahaan telah membangun sistem watermarking untuk konten yang dihasilkan AI. Misalnya, Google meluncurkan SynthID, alat watermarking untuk gambar, audio, teks, dan video yang dihasilkan Gemini. Meta telah mengembangkan alat watermarking gambar yang disebut "Stable Signature" dan alat watermarking suara yang disebut "AudioSeal". Amazon kini menambahkan "tanda air tak terlihat" pada gambar yang dihasilkan oleh model pembuatan gambar Titan. OpenAI menggunakan tanda air dalam model ucapan kustomnya, Voice Engine, dan membuat pengklasifikasi deteksi gambar untuk gambar yang dihasilkan oleh DALL-E 3. Anthropic adalah satu-satunya perusahaan yang belum membuat alat watermarking, karena watermarking terutama ditujukan untuk gambar, dan model Claude perusahaan tersebut tidak mendukung gambar.

Semua perusahaan kecuali Inflection, Anthropic, dan Meta juga merupakan anggota Content Provenance and Authenticity Alliance (C2PA), sebuah aliansi industri yang akan membahas isu-isu seputar kapan konten dibuat dan apakah konten tersebut dibuat atau diedit oleh kecerdasan buatan atau manusia tertanam dalam metadata gambar. Microsoft dan OpenAl secara otomatis menambahkan metadata sumber C2PA ke gambar yang dibuat dengan DALL-E 3 dan video yang dibuat dengan Sora. Meskipun Meta bukan anggota aliansi, Meta mengumumkan bahwa mereka menggunakan standar C2PA untuk mengidentifikasi gambar yang dihasilkan AI pada platformnya.

“Enam perusahaan yang menandatangani komitmen sukarela secara alami tertarik pada pendekatan teknologi untuk mengatasi risiko, dan hal ini terutama berlaku pada sistem watermarking,” kata Rishi Bommasani.

“Pertanyaannya adalah, bisakah 'solusi teknologi' menghasilkan kemajuan yang berarti dan memecahkan masalah sosial mendasar yang membuat kita bertanya-tanya apakah konten dihasilkan oleh mesin?”

hasil: sangat bagus. Secara keseluruhan, ini merupakan hasil yang menggembirakan, dan meskipun sistem watermarking masih bersifat eksperimental dan belum dapat diandalkan, masih ada baiknya untuk melihat penelitian seputar sistem tersebut dan komitmen terhadap standar C2PA. Itu lebih baik daripada tidak sama sekali, terutama di tahun pemilu yang sibuk.

Komitmen 6. Perusahaan-perusahaan berkomitmen untuk melaporkan secara publik kemampuan, keterbatasan, dan area penggunaan yang tepat dan tidak tepat dari sistem AI mereka. Laporan ini akan mencakup risiko keamanan dan risiko sosial, seperti dampak pada keadilan dan bias.

Komitmen 6: Melaporkan secara publik mengenai kemampuan, keterbatasan, dan area di mana sistem AI mereka cocok untuk digunakan. Laporan ini akan mencakup risiko keamanan dan risiko sosial, seperti dampak terhadap keadilan dan bias.

Janji Gedung Putih memberikan banyak ruang untuk interpretasi; misalnya, perusahaan secara teknis dapat memenuhi persyaratan pengungkapan publik selama mereka bergerak ke arah tersebut, sementara tingkat transparansi dapat sangat bervariasi.

Di sini, solusi paling umum yang ditawarkan oleh perusahaan teknologi adalah apa yang disebut “kartu model”. Meskipun masing-masing perusahaan menyebutnya sedikit berbeda, pada dasarnya mereka berfungsi sebagai semacam deskripsi produk untuk model AI. Hal ini dapat mencakup segala hal mulai dari kemampuan dan keterbatasan model (termasuk cara mengukur tolok ukur keadilan dan penjelasan) hingga keaslian, ketahanan, tata kelola, privasi, dan keamanan. Anthropic mengatakan pihaknya juga akan menguji model tersebut untuk mengetahui potensi masalah keselamatan yang mungkin timbul nantinya.

Microsoft telah merilis Laporan Transparansi AI Bertanggung Jawab tahunan, yang memberikan wawasan tentang bagaimana perusahaan membangun aplikasi yang menggunakan kecerdasan buatan generatif, membuat keputusan, dan mengawasi penerapan aplikasi ini. Microsoft juga menyatakan telah memperjelas di mana dan bagaimana kecerdasan buatan digunakan dalam produk-produknya.

hasil: Masih banyak pekerjaan yang perlu dilakukan. Merve Hickok mengatakan peningkatan transparansi dalam struktur tata kelola dan hubungan keuangan antar perusahaan akan menjadi area perbaikan bagi semua perusahaan, dan dia juga ingin melihat perusahaan menjadi lebih transparan mengenai sumber data, proses pelatihan model, insiden keamanan, dan penggunaan energi.

Komitmen 7. Perusahaan-perusahaan berkomitmen untuk memprioritaskan penelitian tentang risiko sosial yang dapat ditimbulkan oleh sistem AI, termasuk menghindari bias dan diskriminasi yang merugikan, serta melindungi privasi. Rekam jejak AI menunjukkan bahaya yang berbahaya dan marak, dan perusahaan-perusahaan berkomitmen untuk meluncurkan AI yang dapat mengurangi risiko tersebut.

Komitmen 7: Prioritaskan penelitian mengenai risiko sosial yang mungkin ditimbulkan oleh sistem kecerdasan buatan, termasuk menghindari bias yang merugikan, diskriminasi, dan perlindungan privasi. Rekam jejak AI menunjukkan betapa berbahaya dan luasnya bahaya-bahaya ini, dan perusahaan-perusahaan ini menjanjikan AI untuk memitigasinya.

Perusahaan teknologi sibuk melakukan penelitian keamanan dan memasukkan temuannya ke dalam produk mereka. Amazon membangun "pagar pembatas" untuk "Amazon Bedrock" yang dapat mendeteksi halusinasi dan juga menerapkan perlindungan keamanan, privasi, dan keaslian. Anthropic mengatakan mereka telah merekrut tim peneliti yang berfokus pada mempelajari risiko sosial dan privasi, dan selama setahun terakhir mereka telah memperkenalkan kemampuan baru untuk spoofing, jailbreaking, strategi pengurangan diskriminasi, dan model yang merusak kode mereka sendiri atau melakukan penelitian persuasi. OpenAI menyatakan telah melatih modelnya untuk menghindari "konten yang penuh kebencian" dan menolak konten yang penuh kebencian atau ekstremis, dan telah melatih GPT-4V untuk menolak banyak permintaan yang memerlukan jawaban berdasarkan stereotip. Google DeepMind juga telah menerbitkan penelitian yang menilai kemampuan berbahaya dan melakukan penelitian terhadap penyalahgunaan AI generatif.

Semua perusahaan berinvestasi besar-besaran dalam penelitian di bidang ini. Google, misalnya, telah menginvestasikan jutaan dolar untuk menciptakan Dana Keamanan AI baru guna mempromosikan penelitian di bidang ini melalui forum pemodelan mutakhir. Microsoft mengatakan telah memberikan pendanaan sebesar $20 juta untuk mempelajari risiko sosial melalui sumber daya penelitian kecerdasan buatan nasional dan meluncurkan program akselerator penelitian model kecerdasan buatan, program Accelerating Fundamental Model Research. Perusahaan juga telah mempekerjakan 24 orang yang berfokus pada Peneliti di bidang kecerdasan buatan dan sosiologi.

hasil: sangat bagus. Ini adalah janji yang mudah untuk dicapai, karena para penandatangannya adalah beberapa laboratorium penelitian AI perusahaan terbesar dan terkaya di dunia. Meskipun penelitian lebih lanjut mengenai cara membuat sistem AI aman merupakan langkah yang disambut baik, para kritikus menunjukkan bahwa fokus pada penelitian keselamatan mengalihkan perhatian dan sumber daya dari penelitian AI, yang berfokus pada dampak buruk yang lebih mendesak, seperti diskriminasi dan prasangka.

Komitmen 8. Perusahaan-perusahaan tersebut berkomitmen untuk mengembangkan dan menerapkan sistem AI canggih guna membantu mengatasi tantangan terbesar masyarakat. Dari pencegahan kanker hingga mitigasi perubahan iklim dan banyak hal lainnya, AI—jika dikelola dengan baik—dapat memberikan kontribusi besar bagi kemakmuran, kesetaraan, dan keamanan semua orang.

Komitmen 8:Mengembangkan dan menerapkan sistem AI yang canggih untuk membantu memecahkan tantangan terbesar masyarakat, mulai dari pencegahan kanker hingga mitigasi perubahan iklim dan banyak bidang lainnya, jika dikelola dengan benar, AI dapat secara signifikan memajukan kesejahteraan, kesetaraan, dan keamanan manusia.

Sejak membuat janji ini, perusahaan teknologi telah memecahkan berbagai masalah. Misalnya, Pfizer menggunakan Claude untuk menilai tren penelitian pengobatan kanker setelah mengumpulkan data yang relevan, sementara perusahaan biofarmasi AS Gilead menggunakan AI generatif Amazon Web Services untuk melakukan penilaian kelayakan studi klinis dan menganalisis kumpulan data.

Google DeepMind memiliki rekam jejak yang kuat dalam meluncurkan alat kecerdasan buatan yang dapat membantu para ilmuwan. Misalnya, AlphaFold 3 dapat memprediksi struktur dan interaksi hampir semua molekul hidup. AlphaGeometry memecahkan masalah geometri pada tingkat yang sebanding dengan siswa sekolah menengah atas. GraphCast adalah model kecerdasan buatan yang mampu meramalkan cuaca jarak menengah. Sementara itu, Microsoft menggunakan citra satelit dan kecerdasan buatan untuk meningkatkan respons terhadap kebakaran hutan di Maui, Hawaii, dan memetakan populasi yang rentan terhadap dampak iklim, yang membantu para peneliti mengungkap risiko seperti kerawanan pangan, migrasi paksa, dan penyakit.

Sementara itu, OpenAI mengumumkan kolaborasi dan pendanaan untuk beberapa proyek penelitian, seperti proyek tentang bagaimana pendidik dan ilmuwan dapat menggunakan model AI multimodal dengan aman di lingkungan laboratorium. Perusahaan ini juga mendanai "hackathon" untuk membantu para peneliti mengembangkan energi ramah lingkungan di platformnya.

hasil: sangat bagus. Beberapa pekerjaan di bidang seperti penggunaan kecerdasan buatan untuk memfasilitasi penemuan ilmiah atau memprediksi cuaca sungguh menarik. Perusahaan-perusahaan AI belum menggunakan AI untuk mencegah kanker, dan ini merupakan batasan yang cukup tinggi untuk memulainya.

Secara keseluruhan, ada beberapa perubahan positif dalam cara AI dibangun, seperti konfrontasi merah-biru, sistem watermarking, dan cara-cara baru untuk berbagi praktik terbaik antar industri. Namun, ini hanyalah beberapa solusi teknologi cerdik yang telah ditemukan untuk mengatasi masalah sosio-teknis yang berantakan akibat bahaya AI, dan masih banyak pekerjaan yang harus dilakukan. Setahun kemudian, janji tersebut masih terlalu menekankan jenis keamanan AI tertentu yang berfokus pada “risiko hipotetis” seperti senjata biologis, namun tidak menyebutkan perlindungan konsumen, deepfake, data dan hak cipta, serta dampak lingkungan dari AI, yang tampaknya merupakan kelalaian saat ini benar-benar aneh.

Tautan asli:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/