Informasi kontak saya
Surat[email protected]
2024-08-17
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
(Sumber gambar: gambar yang dihasilkan AI)
Pada tanggal 16 Agustus, waktu Beijing, Undang-Undang Inovasi Keamanan Model Frontier AI California yang kontroversial (yang kemudian dikenal sebagai Undang-Undang Keamanan AI California SB 1047) akhirnya lolos peninjauan oleh Komite Alokasi Dewan Perwakilan Rakyat California setelah secara signifikan melemahkan ketentuan terkait.
Tim Senator California Wiener mengatakan kepada TechCrunch bahwa RUU tersebut menambahkan beberapa amandemen yang diusulkan oleh perusahaan AI Anthropic dan penentang lainnya, dan akhirnya disahkan oleh Komite Alokasi California, mengambil langkah penting untuk menjadi undang-undang, yang mencakup beberapa perubahan penting.
“Kami menerima usulan amandemen yang sangat masuk akal, dan saya yakin kami telah mengatasi kekhawatiran utama yang diungkapkan oleh Anthropic dan banyak pihak lainnya di industri ini,” kata Senator Wiener dalam sebuah pernyataan. “Amandemen ini melanjutkan perubahan signifikan saya sebelumnya pada SB 1047 untuk mengakomodasi kebutuhan unik komunitas open source, yang merupakan sumber inovasi yang penting.”
SB 1047 masih bertujuan untuk mencegah insiden keamanan siber di mana sistem AI berskala besar membunuh banyak orang atau menyebabkan kerugian lebih dari $500 juta dengan meminta pertanggungjawaban pengembang. Namun, RUU tersebut kini memberi pemerintah California lebih sedikit wewenang untuk meminta pertanggungjawaban laboratorium AI. Dalam dilema kesulitan regulasi di tingkat nasional, hal ini menjadi langkah penting dalam regulasi AI di Amerika Serikat.
Namun, beberapa orang di industri AI seperti Li Feifei dan Yang Likun percaya bahwa hal ini pada akhirnya akan merusak posisi terdepan California dan bahkan Amerika Serikat di bidang AI. Ratusan pengusaha menandatangani surat penolakan yang ditulis oleh inkubator YC, dan lebih dari 100 akademisi di California juga mengeluarkan surat yang menentang RUU tersebut. Lembaga modal ventura a16z membuat situs web khusus untuk merinci enam dosa RUU tersebut. Saat ini, banyak rancangan undang-undang AI sedang dibahas di seluruh Amerika Serikat, namun Undang-Undang Inovasi Keamanan Model Kecerdasan Buatan Frontier California telah menjadi salah satu yang paling kontroversial.
Bagi perusahaan domestik, undang-undang tersebut mengharuskan penyedia layanan cloud untuk mengumpulkan informasi pelanggan, alamat IP, metode pembayaran, dan informasi lainnya, yang memfasilitasi pekerjaan penelusuran dari otoritas pengatur. Jika pengendalian selanjutnya diperketat, hal ini mungkin menjadi risiko peraturan yang dihadapi oleh beberapa perusahaan AI Tiongkok yang menggunakan daya komputasi luar negeri untuk pelatihan.
Jadi, setelah RUU AI di California disahkan, apa dampaknya terhadap industri AI di Tiongkok dan Amerika? Titanium MediaBERSIHUrutkan enam pertanyaan dan jawaban untuk menjelaskan RUU ini dan beberapa informasi di baliknya.
RUU AI California, SB 1047, berupaya mencegah penggunaan model AI berukuran besar yang dapat menyebabkan “kerusakan serius” pada manusia.
RUU tersebut mencantumkan contoh-contoh “kerusakan serius”. Misalnya, pelaku kejahatan menggunakan model AI untuk membuat senjata yang menimbulkan korban jiwa dalam jumlah besar, atau menginstruksikan model AI untuk mengatur serangan siber yang menyebabkan kerugian lebih dari $500 juta (dibandingkan denganSerangan Massa Gangguan ini diperkirakan menelan biaya lebih dari $5 miliar). RUU tersebut mengharuskan pengembang (yaitu perusahaan yang mengembangkan model) untuk menerapkan protokol keamanan yang memadai untuk mencegah konsekuensi tersebut.
Aturan SB 1047 hanya berlaku untuk model AI terbesar di dunia: model yang berharga setidaknya $100 juta dan menggunakan 10^26 FLOPS selama pelatihan – itu adalah jumlah komputasi yang sangat besar, namun Buka AI CEO Sam Altman mengatakan GPT-4 akan membutuhkan biaya pelatihan sebesar itu. Ambang batas ini dapat dinaikkan sesuai kebutuhan.
Saat ini, hanya sedikit perusahaan yang telah mengembangkan produk AI publik yang cukup besar untuk memenuhi persyaratan ini, namun raksasa teknologi seperti OpenAI, Google, dan Microsoft mungkin akan segera melakukannya. Model AI—yang pada dasarnya merupakan mesin statistik besar yang mengidentifikasi dan memprediksi pola dalam data—umumnya menjadi lebih akurat seiring dengan skalanya, dan banyak yang memperkirakan tren ini akan terus berlanjut. Mark Zuckerberg baru-baru ini mengatakan bahwa Llama Meta generasi berikutnya akan membutuhkan daya komputasi 10 kali lebih banyak, yang membuatnya tunduk pada SB 1047.
Yang paling penting, RUU tersebut tidak lagi mengizinkan Jaksa Agung Kalifornia untuk menuntut perusahaan intelijen AI atas kelalaian dalam tindakan keselamatan sebelum terjadinya bencana. Inilah yang disarankan oleh Anthropic.
Sebaliknya, jaksa agung California dapat meminta ganti rugi, mengharuskan perusahaan menghentikan operasi yang dianggap berbahaya, dan masih dapat menuntut pengembang AI jika model AI menyebabkan peristiwa bencana.
RUU AI California yang baru telah mengumumkan bahwa tidak akan ada lagi lembaga Frontier Model Department (FMD). Namun, RUU tersebut tetap membentuk Frontier Model Commission—inti FMD—dan menempatkannya di dalam lembaga operasional pemerintah yang sudah ada. Faktanya, panitia kini lebih besar, dengan sembilan orang, bukan lima orang. Frontier Models Council masih akan menetapkan ambang batas komputasi untuk model yang tercakup, mengeluarkan panduan keselamatan, dan mengeluarkan peraturan untuk auditor.
Penyesuaian terbesar terhadap RUU yang direvisi ini adalah Jaksa Agung California tidak lagi diizinkan untuk menuntut perusahaan AI karena mengabaikan masalah keselamatan sebelum peristiwa bencana terjadi. RUU awal menetapkan bahwa selama auditor menemukan bahwa perusahaan AI melakukan aktivitas ilegal dalam operasi sehari-hari, perusahaan tersebut dapat dituntut. Hal ini menandai pergeseran fokus regulasi dari RUU tersebut ke arah kerugian nyata dan juga akan mengurangi tekanan kepatuhan terhadap perusahaan.
Terakhir, RUU tersebut juga memberikan perlindungan pelapor bagi karyawan di perusahaan model jika mereka berupaya mengungkapkan informasi tentang model AI yang tidak aman kepada Jaksa Agung California.
Sebagian besar perusahaan teknologi AS dan perusahaan rintisan AI beroperasi di California dan akan tunduk pada undang-undang tersebut. Secara khusus, RUU ini berfokus pada “model AI mutakhir.” Hanya pengembang yang biaya daya komputasinya melebihi US$100 juta dalam model pelatihan yang akan menghadapi persyaratan peraturan. Di masa depan, Llama 4 dan GPT-5 mungkin menjadi target regulasi utamanya.
RUU tersebut menunjukkan bahwa chief technology officer dari perusahaan pengembangan model harus menyerahkan sertifikasi tahunan kepada FMD yang menilai potensi risiko model AI mereka, efektivitas protokol keamanan mereka, dan penjelasan tentang bagaimana perusahaan mematuhi SB 1047. Mirip dengan pemberitahuan pelanggaran, jika terjadi "insiden keamanan AI", pengembang harus melaporkannya ke FMD dalam waktu 72 jam setelah mengetahui insiden tersebut.
SB 1047 mengizinkan Jaksa Agung California untuk mengajukan tuntutan hukum perdata terhadap pengembang jika mereka gagal mematuhi salah satu ketentuan ini. Untuk model yang biaya pelatihannya $100 juta, dendanya bisa mencapai $10 juta untuk pelanggaran pertama dan hingga $30 juta untuk pelanggaran berikutnya. Ketika model AI menjadi lebih mahal, tarif penalti akan meningkat.
Jika pelanggaran terjadi, perusahaan dapat dikenakan denda mulai dari US$10 juta hingga US$30 juta, dan jumlah ini akan meningkat seiring dengan meningkatnya biaya pelatihan model.
Selain itu, jika pengembang model dan operator klaster komputasi gagal mematuhi peraturan di atas dan menimbulkan kerugian besar, jika ditentukan bahwa memang terjadi tindakan ilegal, pengadilan dapat menjatuhkan hukuman berikut:
1. Untuk perbuatan melawan hukum pada tahun 2026 dan setelahnya, entitas yang pertama kali melanggar hukum akan dikenakan sanksikomputasi awanDendanya berada dalam kisaran 10% dari biaya rata-rata model dalam cakupan pelatihan pasar. Untuk pelanggaran selanjutnya, jumlah denda tidak boleh melebihi 30% dari biaya ini (dihitung berdasarkan ambang batas US$100 juta yang ditentukan untuk model dalam cakupan tersebut. dalam RUU tersebut, denda untuk pelanggaran pertama minimal US$10 juta).
2. Pengadilan juga dapat mengeluarkan perintah, termasuk namun tidak terbatas pada memodifikasi, menutup sepenuhnya atau menghapus semua turunan yang dikendalikan oleh model dalam lingkup dan pengembangnya.
Namun, hukuman untuk memodifikasi, menutup, dan menghapus model dalam lingkup hanya dapat diterapkan jika hal tersebut menyebabkan kematian orang lain, cedera tubuh yang serius, kerusakan properti, atau ancaman serius terhadap keselamatan publik.
RUU tersebut disahkan oleh Badan Legislatif California dengan relatif mudah, meskipun ada penolakan keras dari anggota parlemen AS, peneliti AI terkemuka, perusahaan teknologi besar, dan pemodal ventura. Amandemen tersebut dapat menenangkan para penentang SB 1047 dan memberi Gubernur Newsom rancangan undang-undang yang tidak terlalu kontroversial sehingga ia dapat menandatangani undang-undang tersebut tanpa kehilangan dukungan dari industri AI.
Saat ini, semakin banyak orang di bidang teknologi yang menentang RUU AI California.
Anthropic mengatakan sedang mengkaji perubahan SB 1047 sebelum mengambil keputusan. Tidak semua saran revisi perusahaan sebelumnya diterima oleh Senator Wiener.
Perusahaan modal ventura terkenal a16z mencantumkan di situs resminya “6 dosa” dalam Undang-Undang Keamanan AI California:
RUU ini akan berdampak buruk pada investasi dan pengembangan AI di California.
RUU ini memberikan sanksi kepada pengembang/pengembang berdasarkan hasil yang tidak jelas. Tes yang relevan belum ada.
Definisi RUU yang tidak jelas ditambah dengan tanggung jawab hukum yang ketat menciptakan ketidakpastian dan risiko ekonomi yang signifikan bagi pengembang AI dan pemilik bisnis.
RUU ini dapat memaksa penelitian AI dilakukan secara rahasia dan secara tidak sengaja membuat sistem AI menjadi kurang aman.
RUU ini menciptakan kerugian sistemik bagi pengembang open source dan startup, yang merupakan jantung dari inovasi dan usaha kecil di California.
RUU ini menghambat penelitian dan inovasi AI di Amerika Serikat dan memberikan peluang bagi negara-negara seperti Tiongkok untuk mengungguli Amerika Serikat dalam bidang AI.
Andreessen Horowitz, mitra pendiri a16z, percaya bahwa meskipun rancangan undang-undang AI di California bertujuan baik, hal ini dapat melemahkan industri teknologi AS karena misinformasi, ketika masa depan teknologi berada di persimpangan jalan yang kritis. Amerika Serikat membutuhkan para pemimpin untuk menyadari bahwa saat ini adalah momen penting untuk mengambil tindakan regulasi yang cerdas dan terpadu terhadap AI.
Profesor Universitas Stanford, Li Feifei, menerbitkan sebuah artikel di situs majalah Fortune yang menjelaskan alasan penolakannya secara rinci. Dia percaya bahwa masalah utama dari RUU ini ada empat poin: RUU ini memberikan hukuman yang berlebihan kepada pengembang dan mungkin menghambat inovasi; membatasi pekerjaan pengembangan sumber terbuka. Menghancurkan komunitas sumber terbuka; melemahkan penelitian AI di dunia akademis dan sektor publik, sehingga berpotensi mencegah akademisi menerima lebih banyak dana dan tidak mengatasi potensi kerugian yang disebabkan oleh kemajuan AI, seperti bias atau deepfake.
Selain itu, ratusan startup yang didukung oleh inkubator YC percaya bahwa RUU ini dapat menimbulkan empat dampak negatif terhadap industri dan ekosistem pengembang:
RUU ini harus menghukum pelaku penyalahgunaan alat, bukan pengembang. Seringkali sulit bagi pengembang untuk memprediksi kemungkinan penerapan model, dan pengembang mungkin masuk penjara karena kejahatan sumpah palsu.
Ambang batas peraturan tidak dapat secara memadai menangkap dinamika perkembangan teknologi. Perusahaan non-California akan dapat mengembangkan teknologi AI dengan lebih bebas, yang mungkin berdampak pada inovasi di California.
"Kill Switch" (mengacu pada kemampuan pengembang untuk mematikan model) mungkin melarang pengembangan AI open source dan menghambat kolaborasi dan transparansi open source.
Bahasa dalam RUU tersebut tidak jelas dan dapat ditafsirkan secara sewenang-wenang oleh hakim.
Yann LeCun, kepala ilmuwan Meta dan pemenang Turing Award 2018, juga menentang RUU ini. Dia khawatir jika risiko model dalam cakupan tersebut tidak dinilai secara akurat, klausul tanggung jawab bersama dan beberapa akan menunjukkan bahwa open source. platform mungkin perlu memikul tanggung jawab.
Andrew Ng, seorang profesor tamu di Departemen Ilmu Komputer dan Departemen Teknik Elektro di Universitas Stanford, menulis bahwa RUU California SB-1047 akan menghambat pengembangan model open source berukuran besar. RUU tersebut harus mengatur aplikasi AI, bukan model besar itu sendiri.
Dia masih terkejut dengan kerugian besar yang disebabkan oleh usulan RUU SB 1047 California untuk membuat model besar menjadi sumber terbuka. RUU ini membuat kesalahan yang serius dan mendasar. Yang harus diatur adalah produk AI generatif yang dikembangkan melalui model besar, bukan model besar open source itu sendiri.
Ng juga percaya bahwa SB 1047 mengharuskan pengembang untuk melindungi model open source besar dari penyalahgunaan, modifikasi, dan pengembangan produk turunan AI ilegal. Namun, bagaimana pengembang harus melindungi dan mendefinisikan perilaku ini masih sangat kabur, dan tidak ada peraturan yang rinci.
Oleh karena itu, Andrew Ng dengan tegas mengimbau semua orang untuk memboikot RUU SB 1047. Ia yakin jika RUU tersebut disahkan, hal itu akan memberikan pukulan telak terhadap inovasi model besar open source, dan pada saat yang sama, California akan kehilangan motivasi untuk melakukannya. Inovasi AI.
Dibandingkan dengan pihak oposisi, saat ini ada beberapa profesional teknologi yang mendukung RUU AI California.
Diantaranya, meskipun Gubernur California Newsom belum mengomentari SB 1047 secara terbuka, ia sebelumnya telah menyatakan komitmennya terhadap inovasi AI di California.
Pada saat yang sama, pemenang Turing Award dan "Godfather of AI" Geoffrey Hinton, pemenang Turing Award Yoshua Bengio, profesor Harvard Law School Lawrence Lessig ) dan Stuart Russell, penulis buku teks AI populer "Artificial Intelligence: A Modern Approach" dan profesor di Universitas California, Berkeley, bersama-sama menulis surat kepada Badan Legislatif California untuk menyatakan dukungan mereka terhadap Undang-Undang Keamanan AI California "Dukungan kuat".
Keempat peneliti tersebut menyatakan bahwa mereka sangat prihatin terhadap risiko AI, dan bahwa Undang-Undang Keamanan AI California merupakan persyaratan minimum untuk mengatur teknologi tersebut secara efektif. “RUU tersebut tidak memiliki sistem perizinan dan tidak mewajibkan perusahaan untuk mendapatkan izin dari lembaga pemerintah sebelum melakukan pelatihan atau menerapkan model. RUU ini bergantung pada penilaian risiko yang dilakukan sendiri oleh perusahaan dan tidak meminta pertanggungjawaban perusahaan secara ketat bahkan jika terjadi bencana. Relatif risikonya adalah bahwa undang-undang ini sangat longgar. Undang-undang yang mengatur AI saat ini tidak seketat yang mengatur toko sandwich. Jika undang-undang tersebut dibatalkan setahun kemudian, maka hal ini akan menjadi sebuah kesalahan bersejarah generasi berikutnya akan lebih ketat. Kesalahan ini akan menjadi lebih jelas ketika sistem AI yang kuat dirilis."
“Empat puluh tahun yang lalu, ketika saya masih berlatih ObrolanGPT Ketika sampai pada versi pertama algoritma AI di balik alat tersebut, tidak seorang pun, termasuk saya, yang memperkirakan bahwa AI akan membuat kemajuan sebesar itu. Sistem AI yang kuat memberikan harapan yang luar biasa, namun risikonya juga sangat nyata dan harus ditanggapi dengan sangat serius. SB 1047 mengambil pendekatan yang sangat cerdas untuk menyeimbangkan permasalahan ini. Saya tetap tertarik dengan potensi AI untuk menyelamatkan nyawa dengan meningkatkan ilmu pengetahuan dan pengobatan, namun kita harus mengembangkan undang-undang yang benar-benar kuat untuk mengatasi risiko tersebut. California adalah titik awal teknologi ini karena di sanalah teknologi ini berkembang pesat. kata Hinton.
Keempat ulama tersebut juga menekankan dalam surat tersebut bahwa terlepas dari apakah risiko tersebut tidak berdasar atau nyata, pihak terkait harus memikul tanggung jawab untuk memitigasi risiko. “Sebagai kelompok ahli yang paling memahami sistem ini,” mereka yakin risiko ini mungkin terjadi dan cukup signifikan sehingga diperlukan pengujian keamanan dan tindakan pencegahan yang masuk akal.
Senator California Scott Wiener, penulis RUU tersebut, mengatakan SB 1047 bertujuan untuk belajar dari kegagalan media sosial dan kebijakan privasi data di masa lalu dan menjaga keamanan warga sebelum terlambat.
“Sikap kita terhadap teknologi adalah menunggu kerusakan terjadi dan kemudian tidak berbuat apa-apa,” kata Wiener. “Kami tidak menunggu sesuatu yang buruk terjadi. Kami ingin bertindak sebelum hal itu terjadi.”
Pengembang tidak akan masuk penjara karena gagal memprediksi risiko model. Pertama, pengembang start-up dan akademisi tidak perlu khawatir karena RUU tersebut tidak berlaku bagi mereka. Kedua, klausul sumpah palsu dalam RUU hanya akan berlaku jika pengembang "dengan sengaja" membuat pernyataan palsu, dan kesalahan penilaian yang tidak disengaja atas kemampuan model tidak akan memicu klausul sumpah palsu (klausul ini telah dihapus dalam amandemen hari ini).
RUU ini tidak menciptakan tanggung jawab yang sepenuhnya baru. Berdasarkan undang-undang yang ada, baik pengembang model maupun pengembang individu dapat dituntut jika suatu model menyebabkan kerugian, dan hal ini berlaku untuk semua model dengan segala kemampuan dan semua individu yang dirugikan dapat menuntut. RUU California yang baru tidak hanya membatasi ruang lingkup peraturan, tetapi juga membatasi hak untuk menuntut dua entitas, Jaksa Agung California dan Dewan Tenaga Kerja.
RUU tersebut tidak akan menghambat inovasi California. RUU ini berlaku untuk semua perusahaan yang melakukan bisnis di California. Bahkan jika mereka memindahkan kantor pusatnya ke luar California, mereka harus mematuhi peraturan terkait (Catatan Zhixi: California adalah ekonomi terbesar kelima di dunia berdasarkan PDB dan memiliki ekosistem teknologi yang lengkap. Teknologi perusahaan Sulit untuk memisahkan diri dari California). Ketika California mengesahkan undang-undang privasi data dan undang-undang perlindungan lingkungan, banyak orang menyatakan bahwa hal ini akan menghambat inovasi, namun faktanya California masih memimpin inovasi.
Tombol pemutus (kill switch) dan persyaratan penilaian keamanan tidak akan menghambat pengembangan AI sumber terbuka. RUU tersebut kini telah direvisi dan memperkuat perlindungan AI open source. Persyaratan untuk model penghentian darurat dalam rancangan undang-undang hanya berlaku untuk model yang berada dalam kendali pengembang, tidak termasuk model sumber terbuka yang tidak terkontrol. RUU tersebut juga membentuk komite penasihat baru untuk mengadvokasi dan mendukung upaya pengembangan AI open source yang aman dan andal.
Berdasarkan RUU tersebut, bahkan jika sebuah perusahaan melatih model senilai $100 juta di Texas atau Prancis, perusahaan tersebut akan dilindungi oleh SB 1047 selama perusahaan tersebut menjalankan bisnis di California. Wiener mengatakan Kongres “hampir tidak menghasilkan undang-undang mengenai teknologi dalam 25 tahun terakhir,” sehingga menurutnya California harus menjadi preseden dalam hal ini.
Dan Hendrycks, direktur Pusat Keamanan Kecerdasan Buatan, mengatakan: "RUU ini adalah demi kepentingan jangka panjang California dan industri AS, karena insiden keselamatan besar mungkin menjadi hambatan terbesar bagi pengembangan lebih lanjut."
Beberapa mantan karyawan OpenAI juga mendukung RUU tersebut, termasuk Daniel Kokotajlo, yang secara sukarela melepaskan opsi OpenAI-nya dengan imbalan hak untuk mengkritik perusahaan secara bebas. Ia percaya bahwa klaim para pengkritik RUU bahwa kemajuan AI akan terhenti mungkin tidak akan terjadi.
Simon Last, pendiri Notion, sebuah unicorn AI bernilai puluhan miliar dolar, menulis sebuah artikel yang mengatakan bahwa dia mendukung RUU tersebut dan percaya bahwa ketika undang-undang AI tingkat federal sulit diterapkan, California, sebagai pusat teknologi di Amerika Serikat dan bahkan dunia, dibebani dengan tanggung jawab yang penting. Ia yakin bahwa pengawasan terhadap model tidak hanya akan meningkatkan keamanannya tetapi juga memfasilitasi startup AI yang membangun produk berdasarkan model dasar, sehingga akan mengurangi beban usaha kecil dan menengah.
“Tujuan SB 1047 adalah – dan selalu demikian – untuk meningkatkan keselamatan AI sambil tetap memungkinkan seluruh ekosistem untuk berinovasi,” kata Nathan Calvin, penasihat kebijakan senior di Center for AI Safety Action Fund sasaran. "
SB 1047 sekarang akan dibawa ke Majelis California untuk pemungutan suara terakhir. Jika RUU tersebut disahkan oleh Majelis, RUU tersebut harus kembali ke Senat California untuk pemungutan suara karena amandemen terbaru. Jika RUU tersebut disahkan pada saat yang sama, RUU tersebut akan dikirim ke meja Gubernur California Gavin Newsom, yang akan membuat keputusan akhir apakah akan menandatangani RUU tersebut pada akhir Agustus.
Wiener mengatakan dia belum berbicara dengan Newsom tentang RUU tersebut dan tidak tahu di mana pendiriannya.