berita

Raksasa Turing pecah lagi! RUU pembatasan AI California yang didukung oleh Hinton pada awalnya disahkan, LeCun, Li Feifei, Wu En

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Laporan Kebijaksanaan Baru

Editor: Sangat mengantuk

[Pengantar Kebijaksanaan Baru]“RUU Pembatasan AI” California pada awalnya berhasil disahkan di tengah penolakan keras dari para taipan AI, perusahaan teknologi besar, perusahaan rintisan, dan pemodal ventura.

Seperti kita ketahui bersama, selain interpretasi di berbagai film fiksi ilmiah, AI tidak membunuh siapa pun di dunia nyata, juga tidak melancarkan serangan cyber skala besar.

Namun, beberapa anggota parlemen AS masih berharap bahwa keamanan yang memadai dapat diterapkan sebelum masa depan distopia ini menjadi kenyataan.


Baru minggu ini, Undang-Undang Inovasi Keamanan Model Kecerdasan Buatan Frontier California, SB 1047, sekali lagi mengambil langkah penting untuk menjadi undang-undang.


Sederhananya, SB 1047 akan mencegah sistem AI menyebabkan korban massal atau memicu insiden keamanan siber yang menelan biaya lebih dari $500 juta dengan meminta pertanggungjawaban pengembang.

Namun, penolakan dari akademisi dan industri begitu kuat sehingga anggota parlemen California sedikit berkompromi dengan menambahkan beberapa amandemen yang disarankan oleh startup AI Anthropic dan penentang lainnya.

Dibandingkan dengan proposal awal, versi saat ini mengurangi kewenangan pemerintah California untuk meminta pertanggungjawaban laboratorium AI.


Alamat tagihan: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

Namun meski begitu, (hampir) tidak ada yang menyukai SB 1047.

Raksasa AI seperti Yann LeCun, Li Feifei, dan Ng Enda telah berulang kali menyatakan ketidakpuasan mereka terhadap RUU ini yang "menghambat AI open source dan memaksa inovasi AI untuk ditangguhkan atau bahkan dihentikan."




Berbagai surat bersama juga bermunculan silih berganti:

Tidak hanya itu, lebih dari 40 peneliti dari University of California, University of Southern California, Stanford University dan California Institute of Technology dengan tegas menghimbau untuk tidak mengesahkan RUU ini.



Dan delapan anggota Kongres yang mewakili berbagai distrik di California juga mendesak gubernur untuk memveto RUU tersebut.




LeCun bahkan menyalin pesan asli yang dia gunakan saat menyerukan moratorium penelitian AI - harap tangguhkan undang-undang AI selama enam bulan!


Jadi pertanyaannya kenapa artikel sebelumnya menggunakan kata "hampir semua"?

Sebab, selain LeCun, dua raksasa Turing lainnya, Yoshua Bengio dan Geoffrey Hinton, sangat mendukung disahkannya RUU ini.

Saya bahkan merasa persyaratan saat ini agak terlalu longgar.


Sebagai peneliti senior kebijakan dan teknologi kecerdasan buatan, kami menulis surat ini untuk menyatakan dukungan kuat kami terhadap RUU Senat California 1047. SB 1047 menguraikan persyaratan dasar untuk regulasi efektif teknologi ini. Kebijakan ini tidak menerapkan sistem perizinan, tidak mewajibkan perusahaan untuk mendapatkan izin dari lembaga pemerintah sebelum melakukan pelatihan atau menerapkan model, bergantung pada perusahaan untuk menilai sendiri risikonya, dan tidak meminta pertanggungjawaban perusahaan secara ketat bahkan ketika terjadi bencana. Peraturan ini relatif lunak jika dibandingkan dengan skala risiko yang kita hadapi. Membatalkan langkah-langkah dasar dalam RUU ini akan menjadi sebuah kesalahan bersejarah—kesalahan yang akan menjadi lebih jelas pada tahun mendatang seiring dengan dirilisnya sistem AI generasi berikutnya yang lebih canggih.

Saat ini, SB 1047 disahkan dengan relatif mudah di Badan Legislatif California, meskipun ada tentangan keras dari beberapa anggota Kongres AS, peneliti AI terkenal, perusahaan teknologi besar, dan pemodal ventura.

Selanjutnya, SB 1047 akan dibawa ke Majelis California untuk pemungutan suara terakhir. Karena adanya tambahan amandemen terbaru, setelah RUU tersebut disahkan, RUU tersebut perlu dikirim kembali ke Senat California untuk dilakukan pemungutan suara.

Jika kedua suara tersebut lolos, SB 1047 akan dikirimkan ke gubernur untuk menunggu veto akhir atau penandatanganan menjadi undang-undang.

Model dan perusahaan mana yang akan dibatasi?

Menurut persyaratan SB 1047, pengembang atau perusahaan yang mengembangkan model harus bertanggung jawab untuk mencegah penggunaan model AI mereka yang menyebabkan "kerusakan besar".

Seperti menciptakan senjata pemusnah massal, atau melancarkan serangan siber yang menelan biaya lebih dari $500 juta. Omong-omong, “Insiden Layar Biru Windows Global” CrowdStrike menyebabkan kerugian lebih dari $5 miliar.

Namun, aturan SB 1047 hanya berlaku untuk model AI yang sangat besar—yaitu, biaya pelatihan minimal $100 juta dan lebih dari 10^26 operasi floating-point. (Pada dasarnya berdasarkan biaya pelatihan GPT-4)

Dikatakan bahwa jumlah perhitungan yang dibutuhkan oleh Llama 4 generasi berikutnya dari Meta akan meningkat 10 kali lipat, dan oleh karena itu juga akan tunduk pada pengawasan SB 1047.

Untuk model sumber terbuka dan versi penyempurnaannya, pengembang asli bertanggung jawab. Kecuali biayanya mencapai 3 kali lipat dari model aslinya.

Dari sudut pandang ini, tak heran jika reaksi LeCun begitu kejam.

Selain itu, pengembang harus membuat prosedur pengujian yang mengatasi risiko model AI dan harus mempekerjakan auditor pihak ketiga setiap tahun untuk mengevaluasi praktik keamanan AI mereka.

Untuk produk AI yang dibuat berdasarkan model, protokol keamanan yang sesuai perlu dikembangkan untuk mencegah penyalahgunaan, termasuk tombol "berhenti darurat" yang mematikan seluruh model AI.

dll……

Apa fungsi SB 1047 saat ini?

Saat ini, SB 1047 tidak lagi mengizinkan Jaksa Agung California untuk menuntut perusahaan AI atas kelalaian tindakan keselamatan sebelum peristiwa bencana terjadi. (Saran dari Antropik)

Sebaliknya, Jaksa Agung Kalifornia dapat meminta perintah yang mengharuskan perusahaan menghentikan operasi yang dianggap berbahaya, dan masih dapat menuntut pengembang AI jika model mereka benar-benar menyebabkan bencana besar.

SB 1047 tidak lagi membentuk lembaga pemerintah baru "Frontier Modeling Division (FMD)" yang semula termasuk dalam RUU tersebut.

Namun inti FMD, Frontier Model Committee, tetap dibentuk dan ditempatkan di Badan Operasional Pemerintah yang ada, dan ukurannya diperluas dari sebelumnya 5 menjadi 9 orang. Komite masih akan menetapkan ambang batas komputasi untuk model yang tercakup, mengeluarkan panduan keselamatan, dan mengeluarkan peraturan untuk auditor.

SB 1047 juga memiliki kata-kata yang lebih longgar dalam hal memastikan keamanan model AI.

Kini, pengembang hanya perlu memberikan “kehati-hatian yang wajar” untuk memastikan bahwa model AI tidak menimbulkan risiko bencana yang signifikan, dibandingkan dengan “jaminan yang wajar” yang diperlukan sebelumnya.

Selain itu, pengembang hanya perlu menyerahkan "pernyataan" publik yang menguraikan langkah-langkah keamanan mereka, dan tidak perlu lagi menyerahkan sertifikasi hasil uji keamanan di bawah ancaman hukuman sumpah palsu.

Ada juga perlindungan terpisah untuk model fine-tuning open source. Jika seseorang menghabiskan kurang dari $10 juta untuk menyempurnakan suatu model, mereka tidak dianggap sebagai pengembang dan tanggung jawab tetap berada pada pengembang besar asli model tersebut.

Li Feifei pernah secara pribadi menulis artikel yang mengkritik

Dampak SB 1047 terhadap industri AI dapat dilihat pada kolom "AI Godmother" Li Feifei di majalah Fortune:

“Jika ini menjadi undang-undang, SB 1047 akan merugikan ekosistem AI yang baru lahir di Amerika, terutama pihak-pihak yang sudah dirugikan: sektor publik, akademisi, dan perusahaan teknologi kecil. penelitian juga gagal memecahkan masalah sebenarnya.”


Pertama, SB 1047 akan menghukum pengembang secara berlebihan dan menghambat inovasi.

Jika model AI disalahgunakan, SB 1047 menyalahkan pihak yang bertanggung jawab dan pengembang asli model tersebut. Bagi setiap pengembang AI, terutama pemrogram dan pengusaha pemula, mustahil memprediksi setiap kemungkinan penggunaan model mereka. SB 1047 akan memaksa pengembang untuk mengambil tindakan defensif – sesuatu yang harus dihindari dengan cara apa pun.

Kedua, SB 1047 akan membatasi pengembangan open source.

SB 1047 mewajibkan semua model yang melebihi ambang batas tertentu untuk menyertakan "tombol berhenti darurat", yaitu mekanisme yang dapat mematikan program kapan saja. Jika pengembang khawatir program yang mereka unduh dan buat akan terhapus, mereka akan semakin ragu untuk membuat kode atau berkolaborasi. Tombol berhenti darurat ini akan berdampak besar pada komunitas open source—tidak hanya pada AI, namun juga pada banyak sumber inovasi di berbagai bidang seperti GPS, MRI, dan Internet itu sendiri.

Ketiga, SB 1047 akan melumpuhkan penelitian AI di sektor publik dan akademisi.

Pengembangan sumber terbuka penting bagi sektor swasta, terlebih lagi bagi dunia akademis, yang tidak dapat mencapai kemajuan tanpa kolaborasi dan akses terhadap data model. Bagaimana para peneliti dapat melatih generasi pemimpin AI berikutnya jika mereka tidak memiliki akses terhadap model dan data yang sesuai? Tombol berhenti darurat akan semakin melemahkan dunia akademis, yang sudah berada pada posisi yang tidak menguntungkan dalam hal data dan komputasi. SB 1047 akan memberikan pukulan fatal bagi AI akademis pada saat kita harus berinvestasi lebih banyak pada AI sektor publik.

Yang paling mengkhawatirkan, SB 1047 tidak mengatasi potensi risiko kemajuan AI, termasuk bias dan deepfake. Sebaliknya, ia menetapkan ambang batas yang sangat sewenang-wenang—sejumlah daya komputasi atau model tertentu yang membutuhkan biaya pelatihan sebesar $100 juta. Tindakan ini tidak hanya gagal memberikan perlindungan, namun akan membatasi inovasi di berbagai bidang, termasuk dunia akademis.

Li Feifei mengatakan bahwa dia tidak menentang tata kelola AI. Perundang-undangan sangat penting untuk pengembangan AI yang aman dan efektif. Namun, kebijakan AI harus mendukung pengembangan open source, menetapkan aturan yang seragam dan masuk akal, serta membangun kepercayaan konsumen.

Jelasnya, SB 1047 tidak memenuhi standar tersebut.

Referensi:

https://techcrunch.com/2024/08/15/california-weakens-bill-to-prevent-ai-disasters-before-final-vote-taking-advice-from-anthropic/

https://techcrunch.com/2024/08/15/california-ai-bill-sb-1047-aims-to-prevent-ai-disasters-but-silicon-valley-warns-it-will-cause-one/

https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/