berita

“Ibu baptis AI” Li Feifei secara pribadi menulis: RUU keselamatan AI California akan merugikan ekosistem AS|Titanium Media AGI

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Menurut berita Aplikasi TMTpost pada tanggal 7 Agustus, "Ibu baptis AI", akademisi dari National Academy of Engineering, akademisi dari National Academy of Medicine, akademisi dari American Academy of Arts and Sciences, Profesor Ketua Sequoia pertama di Universitas Stanford, Dekan Institut Kecerdasan Buatan yang Berpusat pada Manusia (HAI) Stanford Feifei Li menulis artikel di "Fortune" pagi ini dan menunjukkan bahwa penerapan Undang-Undang Keamanan AI yang akan datang di California akan merugikan pengembang, akademisi, dan bahkan seluruh ekosistem AI di AS, namun hal ini tidak akan menyelesaikan potensi bahaya AI.

“Saat ini, AI sudah lebih maju dari sebelumnya. Namun, seiring dengan kekuatan yang besar, terdapat pula tanggung jawab yang besar. Para pembuat kebijakan, masyarakat sipil, dan pelaku industri sedang mencari pendekatan tata kelola yang meminimalkan potensi bahaya dan membentuk masyarakat AI yang aman dan berpusat pada manusia beberapa dari upaya ini tetapi saya mewaspadai upaya lainnya; Undang-undang Inovasi Aman untuk Model Kecerdasan Buatan California (selanjutnya disebut sebagai SB-1047) termasuk dalam kategori yang terakhir ini seluruh negeri," kata Li Feifei.

Dilaporkan bahwa pada bulan Juli tahun ini, Senat California menyetujui versi RUU SB-1047, yang mengharuskan pengembang untuk membuktikan bahwa model AI mereka tidak akan digunakan untuk menimbulkan kerugian oleh legislator negara bagian AS tahun ini. Terlalu banyak pembatasan untuk menarik perhatian. Proposal yang sangat merugikan ini mungkin akan ditandatangani menjadi undang-undang oleh Gubernur Kalifornia Gavin Newsom pada bulan Agustus tahun ini.

Berdasarkan definisi RUU tersebut, Llama-3 milik Meta didefinisikan sebagai "model mutakhir" yang membutuhkan biaya pelatihan lebih dari $100 juta. Meta juga akan dikenakan sanksi berat jika seseorang menggunakan model tersebut untuk tujuan ilegal. Pada saat yang sama, Pasal 22603(a)(3)(4) Undang-undang mewajibkan "Pembebasan Bea Terbatas" untuk menyerahkan sertifikasi kepada lembaga pemerintah dan menghentikan pengoperasian model jika ada kesalahan, sedangkan Pasal 22603(b) mensyaratkan pengembang untuk Melaporkan potensi insiden keamanan AI untuk model apa pun. Jika pengembang tidak dapat sepenuhnya mengontrol berbagai versi turunan berdasarkan modelnya, jika terjadi insiden keamanan, tanggung jawab akan menjadi tanggung jawab pengembang pertama——Hal ini setara dengan tanggung jawab bersama

Selain itu, Pasal 22604(a)(b) dari RUU tersebut menetapkan bahwa ketika pengguna menggunakan "model mutakhir" dan sumber daya komputasi, pengembang harus menyerahkan semua informasi pelanggan, termasuk identitas pelanggan, nomor kartu kredit, nomor rekening, dan pengidentifikasi identifikasi pelanggan, pengidentifikasi transaksi, email, nomor telepon. Selain itu, informasi harus disampaikan setahun sekali dan perilaku serta niat pengguna dievaluasi. Semua informasi pengguna akan dicadangkan selama 7 tahun dan juga akan diajukan ke Administrasi Bea Cukai dan Perbatasan.

Letak geografis California di Amerika Serikat sangat istimewa, merupakan rumah bagi sekolah-sekolah terkenal seperti Stanford, Caltech, dan University of Southern California, serta Google, Apple,Buka AI Ini juga merupakan rumah bagi kantor pusat raksasa teknologi seperti Meta dan Meta. Oleh karena itu, dalam hal ini, Yann LeCun, pemenang Turing Award dan kepala ilmuwan AI Meta, Li Feifei, Andreessen Horowitz, mitra pendiri lembaga investasi a16z, Departemen Ilmu Komputer dan Departemen Teknik Elektro di Universitas Stanford Profesor tamu Andrew Ng dan lainnya menyatakan keberatan.

Di antara mereka, Yang Likun memperingatkan bahwa "klausul pertanggungjawaban bersama dan beberapa dari RUU tersebut akan membuat platform AI open source menghadapi risiko besar... Meta tidak akan terpengaruh, tetapi startup AI akan bangkrut." secara jahat oleh pihak lain, RUU tersebut mengharuskan pengembang AI untuk menanggung tanggung jawab perdata dan bahkan pidana atas model yang mereka kembangkan.

Horowitz percaya bahwa meskipun rancangan undang-undang anti-AI di California bertujuan baik, hal ini dapat melemahkan industri teknologi AS karena misinformasi, ketika masa depan teknologi berada di persimpangan jalan yang kritis. Amerika Serikat membutuhkan para pemimpin untuk menyadari bahwa saat ini adalah momen penting untuk mengambil tindakan regulasi yang cerdas dan terpadu terhadap AI.

Andrew Ng mengeluarkan artikel yang menyatakan bahwa RUU California SB-1047 akan menghambat pengembangan model open source yang besar. Dia lebih lanjut menunjukkan,Yang harus diatur adalah aplikasi AI, bukan model besar itu sendiri

Li Feifei percaya bahwa kebijakan AI harus mendorong inovasi, menetapkan batasan yang tepat, dan memitigasi dampak dari pembatasan tersebut. Kebijakan yang gagal mencapai tujuan mereka, paling banter, akan gagal mencapai tujuannya dan, paling buruk, menimbulkan konsekuensi yang tidak diinginkan dan serius. Jika SB-1047 disahkan menjadi undang-undang, hal ini akan merugikan ekosistem AI yang masih baru di Amerika, terutama bagian-bagian yang sudah dirugikan oleh raksasa teknologi saat ini: sektor publik, akademisi, dan “teknologi kecil.” SB-1047 akan memberikan sanksi yang tidak perlu kepada pengembang, menghambat komunitas open source, dan menghambat penelitian akademis AI, serta gagal memecahkan masalah nyata yang dirancang untuk dipecahkan.

Li Feifei memberikan empat alasan:

Pertama, SB-1047 akan menghukum pengembang secara berlebihan dan menghambat inovasi. Jika model AI disalahgunakan, SB-1047 akan meminta pertanggungjawaban pihak yang bertanggung jawab dan pengembang asli model tersebut. Tidak mungkin bagi setiap pengembang AI (terutama pemrogram dan pengusaha pemula) untuk memprediksi setiap kemungkinan penggunaan model mereka. SB-1047 akan memaksa pengembang untuk mundur dan bersikap defensif—hal inilah yang ingin kami hindari.

Kedua, SB-1047 akan membatasi pengembangan open source. SB-1047 mengharuskan semua model yang melebihi ambang batas tertentu untuk menyertakan "sakelar mematikan", yaitu mekanisme yang dapat mematikan program kapan saja. Pengembang akan semakin enggan untuk membuat kode dan berkolaborasi jika mereka khawatir program yang mereka unduh dan buat akan terhapus. Tombol mematikan ini akan menghancurkan komunitas open source—sumber dari inovasi yang tak terhitung jumlahnya, tidak hanya dalam bidang AI namun dalam segala hal mulai dari GPS, MRI, hingga Internet itu sendiri.

Ketiga, SB-1047 akan melemahkan penelitian AI di sektor publik dan akademisi. Pengembangan open source penting bagi sektor swasta, namun juga penting bagi dunia akademis, yang tidak dapat maju tanpa kolaborasi dan pemodelan data. Ambil contoh, mahasiswa ilmu komputer yang mengerjakan model AI terbuka. Jika institusi kita tidak memiliki akses terhadap model dan data yang sesuai, bagaimana kita bisa mendidik generasi pemimpin AI berikutnya? Perubahan yang mematikan akan semakin melemahkan upaya para mahasiswa dan peneliti ini, yang sudah berada pada posisi yang kurang menguntungkan dalam hal data dan komputasi dibandingkan dengan perusahaan teknologi besar. SB-1047 akan menjadi "lonceng kematian" bagi akademisi dan sektor publik AI yang harus menggandakan investasi.

Yang paling mengkhawatirkan adalah RUU ini tidak mengatasi potensi dampak buruk dari pengembangan AI, termasuk bias dan deepfake. Sebaliknya, SB-1047 menetapkan ambang batas sewenang-wenang, mengatur model yang menggunakan sejumlah daya komputasi atau biaya pelatihan sebesar $100 juta. Bukannya memberikan perlindungan, langkah ini hanya akan membatasi inovasi di berbagai bidang, termasuk dunia akademis.

Li Feifei menunjukkan bahwa saat ini, model AI di dunia akademis berada di bawah ambang batas tersebut, namun jika Amerika Serikat menyeimbangkan kembali investasi di AI sektor swasta dan publik, dunia akademis akan diatur oleh SB-1047, dan sebagai hasilnya, ekosistem AI di AS akan menjadi lebih buruk. . Oleh karena itu, Amerika harus melakukan yang sebaliknya.

“Dalam beberapa percakapan dengan Presiden Biden selama setahun terakhir, saya telah menyatakan perlunya 'mentalitas perjalanan ke bulan' untuk memajukan pendidikan, penelitian, dan pengembangan AI di negara kita. Namun, pembatasan SB-1047 terlalu sewenang-wenang dan tidak hanya akan berdampak buruk bagi negara kita. California Ekosistem AI juga akan menimbulkan dampak hilir yang mengganggu pada AI di seluruh negeri." Li Feifei menunjukkan bahwa dia tidak menentang tata kelola AI. Perundang-undangan sangat penting untuk pengembangan AI yang aman dan efektif. Namun kebijakan AI harus mendorong pengembangan sumber terbuka, mengusulkan aturan yang seragam dan masuk akal, serta membangun kepercayaan konsumen. SB-1047 tidak memenuhi standar ini.

Li Feifei menekankan bahwa dia mengusulkan kerja sama dengan Senator Scott Wiener, penulis RUU tersebut: Mari kita bersama-sama merumuskan undang-undang AI dan benar-benar membangun masyarakat masa depan yang dipimpin oleh teknologi dan berpusat pada manusia.

“Faktanya, masa depan AI bergantung padanya. California – sebagai entitas pionir dan rumah bagi ekosistem AI yang paling kuat di negara kita – merupakan jantung dari gerakan AI, dan perkembangan di California akan berdampak pada seluruh negara. . "kata Li Feifei di akhir.