berita

RUU AI AS sangat lemah! Lingkaran AI sedang meledak, Li Feifei secara terbuka mengutuknya, semua perusahaan AI dalam negeri prihatin dengan hal ini

2024-08-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


hal-hal cerdas
Penulis Chen Junda
SuntingPanken

Zhidongxi melaporkan pada tanggal 16 Agustus bahwa baru saja, “Undang-Undang Inovasi Keamanan Model AI Frontier” yang kontroversial di California (yang kemudian dikenal sebagai Undang-Undang Keamanan AI California) diumumkan pada tahun 2017.melemah secara signifikanKemudian, proyek tersebut berhasil lolos peninjauan oleh Komite Alokasi Dewan Perwakilan Rakyat California.Kesulitan mengatur hukum di tingkat nasionalDi tengah dilema tersebut, hal ini menjadi langkah penting bagi Amerika Serikat dalam mengatur AI. Namun, sebagian komunitas teknologi meyakini hal tersebutHal ini pada akhirnya akan merugikan California dan bahkan posisi terdepan Amerika Serikat di bidang AI.

Penyesuaian terbesar dalam RUU yang diubah adalah itutidak lagi diperbolehkanJaksa Agung California menggugat perusahaan AI karena mengabaikan masalah keselamatan sebelum peristiwa bencana terjadi. RUU awal menetapkan bahwa selama auditor menemukan bahwa perusahaan AI melakukan aktivitas ilegal dalam operasi sehari-hari, perusahaan tersebut dapat dituntut. Ini menandai tagihan ituFokus peraturan beralih ke dampak buruk yang sebenarnya, juga akanMengurangi tekanan kepatuhan pada perusahaan.

Sebagian besar perusahaan teknologi AS dan startup AI beroperasi di California.akan tunduk pada UU tersebut.Secara khusus, RUU ini terutama berfokus pada "Model AI mutakhir"Hanya pengembang yang biaya daya komputasinya untuk model pelatihan melebihi US$100 juta yang akan menghadapi persyaratan peraturan. Model yang ada tidak berada dalam lingkup pengawasan. Di masa depanLlama 4 dan GPT-5 mungkin menjadi target regulasi utamanya.

Untuk perusahaan dalam negeri, jika Anda hanya melakukan fine-tuning dan operasi lainnya berdasarkan open source, kemungkinan besar hal tersebut tidak akan dimasukkan dalam lingkup pengawasan. Namun, undang-undang tersebut mengharuskan penyedia layanan cloud untuk mengumpulkan informasi pelanggan, alamat IP, metode pembayaran, dan informasi lainnya, yang memfasilitasi pekerjaan penelusuran dari otoritas pengatur. Jika kontrol lebih diperketat, hal ini mungkin terjadiRisiko peraturan yang dihadapi oleh beberapa perusahaan AI Tiongkok yang menggunakan daya komputasi luar negeri untuk pelatihan.

Perusahaan yang berada dalam lingkup pengawasan harusmengambil tindakan proaktifUntuk menghindari penyalahgunaan model, Anda juga harus memilikinyamodel penutupan daruratkemampuan. Selain itu, mereka diharuskan untuk menyerahkan pernyataan publik yang menguraikan praktik keamanan mereka. RUU itu memperkenalkan "Inspeksi tahunan” sistem, pengembang diharuskan mempekerjakan auditor independen untuk menilai kepatuhan setiap tahun.

Begitu aktivitas ilegal terjadi, perusahaan mungkin akan menghadapinyaberkisar antara US$10 juta hingga US$30 jutaJumlah ini akan meningkat seiring dengan meningkatnya biaya pelatihan model.

Lingkaran AI terpecah menjadi dua kubu, dan terjadi perdebatan sengit.

Pemenang Penghargaan Turing 2018Jeffrey Hinton(Geoffrey Hinton) danJoshua Bengio(Yoshua Bengio) menyatakan dukungannya dan percaya bahwa California AI Safety Act adalah regulasi yang efektif untuk teknologi AI.Persyaratan minimal”。

Ratusan pengusaha menandatanganiInkubator YCLebih dari 100 akademisi di California juga menulis surat penolakan.Lembaga modal ventura a16zBuatlah website khusus untuk merinci enam kejahatan UU tersebut, profesor Universitas StanfordLi FeifeiDitweet khusus untuk mengutuk, poin utamanya adalah bahwa RUU ini akan menghambat investasi dan pengembangan AI di California,Merugikan ekosistem open source secara signifikan, tidak mengatasi risiko besar yang ditimbulkan oleh AI.

Namun, Senator Negara Bagian California Scott Wiener, penulis RUU Regulasi AI California, membantah beberapa kritik terhadap RUU tersebut, dengan mengatakan bahwa a16z dan YCsengaja memutarbalikkan fakta, RUU ini merupakan optimalisasi dalam kerangka hukum yang ada, meningkatkan relevansi pengawasan, tidak akan memenjarakan banyak pengembang, dan tidak akan merugikan inovasi dan AI open source.

Zhixixi telah mengumpulkan sejumlah besar informasi dan merangkum konten spesifik dan pembahasan terkait RUU ini ke dalam lima pertanyaan dan jawaban berikut:

1. Apa ruang lingkup penerapannya? Sebagian besar model yang ada tidak dapat diterapkan, dan Llama 4 dan GPT-5 mungkin dimasukkan dalam cakupan peraturan

Untuk mencapai pengawasan yang efektif, RUU ini awalnya berencana untuk membentuk "Frontier Model Department (FMD)" untuk melaksanakan peraturan terkait. Dengan revisi hari ini, divisi ini berubah menjadi komisi beranggotakan sembilan orang dalam badan pemerintah California, yang mencakup perwakilan dari industri AI, komunitas open source, dan akademisi, dan ditunjuk oleh Gubernur dan Badan Legislatif California. Frontier Models Council masih akan menetapkan ambang batas komputasi untuk model yang tercakup, mengeluarkan panduan keselamatan, dan mengeluarkan peraturan untuk auditor.

Sebagai salah satu pusat pengembangan AI di Amerika Serikat bahkan dunia, California telah menarik banyak perusahaan AI. Lebih dari 30 dari 50 perusahaan AI teratas versi majalah Forbes pada tahun 2024 beroperasi di California. Menurut RUU ini, mereka semua harus mematuhi ketentuan yang relevan dari California AI Safety Act. Namun, ruang lingkup penerapan RUU ini akan sangat dibatasi oleh kemampuan model tersebut.Mungkin hanya pemain terkemuka di dunia model besar yang akan diatur oleh undang-undang ini di tahun-tahun mendatang.


▲ Tangkapan layar bagian dari RUU Regulasi AI California (Sumber: Situs web resmi Senat California)

RUU ini akan mengevaluasi apakah suatu model harus dimasukkan dalam ruang lingkup peraturan berdasarkan daya komputasi dan biaya daya komputasi yang digunakan dalam pelatihan model, yaitu diklasifikasikan sebagai "Model tertutup” Peraturan terkait dapat diringkas menjadi dua poin berikut:

1. Gunakan sebelum 1 Januari 202710^26dan lebih banyak operasi integer atau floating-point ($100 juta berdasarkan harga pasar rata-rata daya komputasi) atau penggunaan3*10^25Model yang diperoleh setelah menyempurnakan model dalam jangkauan dengan daya komputasi akan dicantumkan sebagai model dalam jangkauan.

2. Setelah tanggal 1 Januari 2027, standar di atas akan diterapkan oleh CaliforniaRegulator model mutakhirBuatlah penilaian. Jika departemen mengubah ambang daya komputasi, standar baru akan berlaku; jika departemen memutuskan bahwa tidak diperlukan modifikasi, standar asli akan terus digunakan. Selain itu, setelah tahun 2026, $100 juta dalam standar awal seharusnyaSesuaikan dengan memperhitungkan inflasi.

Lantas model mana yang sudah dirilis sekarang yang akan masuk dalam kisaran ini? Ada banyak cara untuk menghitung daya komputasi yang digunakan dalam pelatihan model. OpenAI pernah memperkirakannya secara kasar di sebuah makalah:

FLOPS=6ND

(di mana N adalah jumlah parameter dan D adalah jumlah token)

Dengan menggunakan metode penghitungan dan data model sumber terbuka ini, kami dapat memperkirakan secara kasar tingkat daya komputasi yang saat ini digunakan oleh model:

Llama 3 70B

Ia memiliki 70 miliar parameter dan menggunakan 15T token data pelatihan selama pelatihan, sehingga daya komputasi yang digunakan kira-kira:

6 * 70B * 15T = 6,3 * 10^24 FLOPS

Llama 3.1 405B

Ia memiliki 405 miliar parameter dan menggunakan 15,6T token data pelatihan selama pelatihan, sehingga daya komputasi yang digunakan kira-kira:

6 * 405B * 15,6T = 3,79 * 10^25 JALUR


▲ Informasi terkait Llama 3.1 405B (Sumber: Memeluk Wajah)

Metode penghitungan ini relatif kasar dan mungkin sangat berbeda dari keadaan sebenarnya, namun tetap memiliki arti referensi. Menurut hasil ini,Llama 3.1 405B, raja model open source, saat ini tidak akan dicantumkan sebagai model dalam cakupan RUU tersebut., suatu model hanya akan dicantumkan sebagai model dalam jangkauan jika menggunakan daya komputasi penuh 2,6 kali lipat dari Llama 3.1 405B.

Data ini juga dapat didukung oleh pernyataan dalam surat terbuka menanggapi kontroversi RUU tersebut oleh Senator Negara Bagian California William Wilson, penulis RUU ini. Ia menulis dalam suratnya, “Dalam model yang saat ini dirilis ke publik,.Tidak ada model yang mencapai ambang batas daya komputasi 10^26 FLOP”。

Untuk jangka waktu yang lama di masa depan, sebagian besar perusahaan pengembangan model kecil dan menengah serta pengembang independen mungkin tidak perlu khawatir tentang pengawasan RUU ini. Menurut ambang batas daya komputasi dan ambang batas modal, objek peraturan utamanya adalah sepertiOpenAI, Meta, GooglePemain utama di bidang AI danStartup terkemuka yang telah menerima investasi dalam jumlah besar.

Menurut pernyataan publik CEO OpenAI Sam Altman, biaya pelatihan GPT-4 adalah sekitar US$100 juta. Tidak jelas apakah biaya ini termasuk investasi selain daya komputasi. Jika GPT-5 atau model OpenAI berikutnya lainnya dirilis, hal tersebut mungkin diatur oleh undang-undang ini. CEO Meta Mark Zuckerburg memperkirakan Llama 4 akan membutuhkan sekitar 10 kali daya komputasi Llama 3.1, yang berartiLlama 4 harus menjadi salah satu dari sedikit model open source yang akan terdaftar sebagai model jangkauan di masa depan.

2. Apa saja tanggung jawab perusahaan? Pengembang perlu melakukan "inspeksi tahunan", secara proaktif mencegah penyalahgunaan dan melengkapi mereka dengan "tombol mematikan"

Menurut ketentuan yang relevan dari undang-undang ini,Pengembang model jangkauanTerutama bertanggung jawab atas tanggung jawab berikut:

1. Implementasimanajemen, teknologi dan fisikaPerlindungan keamanan tiga cabang untuk mencegah model dalam cakupan dan turunan dari model dalam cakupan yang dikendalikan oleh pengembangAkses tidak sah, penyalahgunaan atau modifikasi pasca pelatihan

2、Mencapai kemampuan untuk mematikan model sepenuhnya pada waktu yang tepat.

3. RUU asli menetapkan bahwa pengembang model perlu menandatangani perjanjian keamanan independen untuk memastikannyaModel dan turunannya yang berisiko menimbulkan kerugian serius (seperti serangan dunia maya yang menyebabkan kerugian lebih dari 500 juta dolar AS, menyebabkan kematian atau cedera parah, dll.) tidak akan dikembangkan.Jika ada informasi palsu dalam perjanjian, maka akan dikenakan sanksi hukuman sumpah palsu.

RUU yang diubahHal ini sangat melemahkan efektivitas hukum perjanjian ini. Saat ini, pengembang model hanya perlu menyerahkan pernyataan publik yang menguraikan praktik keamanan mereka.Namun, ketentuan ini tidak lagi membebankan tanggung jawab pidana apa pun, dan entitas terkait hanya akan dituntut setelah terjadi kerugian besar.

4. Jika model dan turunannya dalam cakupan dapat menyebabkan atau membantu menyebabkan cedera serius, pengembang tidak boleh menggunakannya sendiri untuk tujuan komersial atau publik, atau memberikannya kepada orang lain untuk penggunaan komersial atau publik.

5. Mulai tanggal 1 Januari 2028, pengembang model dalam lingkup tersebut harusPekerjakan 1 auditor pihak ketiga setiap tahun, untuk melakukan penilaian rinci dan obyektif terhadap kepatuhan pengembang terhadap persyaratan Undang-undang, melaporkan pelanggaran dan saran revisi.

6、RUU yang direvisi ini menambahkan perlindungan untuk menyempurnakan model open source.RUU tersebut secara eksplisit menetapkan bahwa jika pengembang mengeluarkan uang untuk menyempurnakan model dalam cakupanKurang dari US$10 juta, ia tidak akan diakui sebagai pengembang model yang telah disempurnakan, dan tanggung jawab akan tetap ditanggung oleh pengembang model aslinya.

Selain itu, RUU ini mengatur bahwa layanan cloud seperti Amazon Cloud Services (AWS) dan Microsoft AzureKewajiban penyedia layanan cloud. Saat menyediakan daya komputasi yang cukup kepada pelanggan untuk melatih model dalam cakupannya, penyedia layanan cloud harus siap untuk:

1. Mendapatkan informasi identitas dasar pelanggan dan tujuan bisnis, termasukIdentitas pelanggan, alamat IP, metode pembayaran dan sumberdll. Operasi kepatuhan yang relevan harus meninggalkan jejak dan catatan harus disimpan selama 7 tahun.

2. Evaluasi apakah pelanggan benar-benar berencana menggunakan daya komputasi untuk melatih model dalam cakupan.

3、Kemampuan untuk mematikan sumber daya komputasi yang digunakan oleh pengguna saat melatih atau mengoperasikan model.

Pengembang dan penyedia layanan cloud model dalam cakupan juga harus menyediakanDaftar harga yang transparan, terpadu dan publik, dan memastikannya selama proses penetapan harga dan aksesTidak ada diskriminasi atau perilaku anti persaingan. TetapiEntitas publik, institusi akademik dan peneliti non-komersialAnda dapat menikmati hak penggunaan gratis atau diskon. Beberapa penyedia layanan cloud akan menggunakan diskon harga untuk menarik atau mendukung perusahaan pengembang AI tertentu. Perilaku ini mungkin tidak dapat dihindari setelah undang-undang tersebut resmi berlaku.

RUU tersebut menetapkan bahwa ketika pengembang mengetahui bahwa insiden keamanan telah terjadi pada suatu model,Insiden yang relevan harus dilaporkan kepada pihak berwenang dalam waktu 72 jam. Selain itu, pengembang juga harus memastikan bahwa suatu model atau turunannya digunakan untuk tujuan komersial atau publik.Dalam waktu 30 hari, kirimkan pernyataan kepatuhan untuk model ini. Selain itu, mereka yang melaporkan pelanggaran“Pelapor” akan dilindungi undang-undang, perusahaan atau organisasi tidak boleh mencegah atau membalas karyawan yang mengungkapkan pelanggaran.

3. Bagaimana cara menghukum tindakan ilegal? Denda mulai dari US$10 juta dapat mengakibatkan penutupan atau penghapusan model

Jika pengembang model dan operator cluster komputasi gagal mematuhi peraturan di atas dan menyebabkan kerugian besar, Jaksa Agung dan Komisi Perburuhan California akan memiliki kewenangan untuk menuntut entitas terkait. Jika ditentukan bahwa telah terjadi perbuatan melawan hukum, pengadilan dapat menjatuhkan hukuman sebagai berikut:

1. Untuk pelanggaran pada tahun 2026 dan setelahnya, entitas yang melanggar hukum untuk pertama kalinya akan didenda sebesar 10% dari biaya rata-rata model dalam lingkup pelatihan pasar komputasi awan melebihi 30% dari biaya ini (berdasarkan Perhitungan ambang batas $100 juta yang ditentukan dalam tagihan untuk model dalam cakupan,Denda untuk pelanggaran pertama setidaknya $10 juta)。

2. Pengadilan juga dapat mengeluarkan perintah,Termasuk namun tidak terbatas pada memodifikasi, menutup sepenuhnya, atau menghapus semua turunan yang dikendalikan oleh model dalam cakupan dan pengembangnya.

Namun, hukuman untuk memodifikasi, menutup, dan menghapus model dalam cakupan hanya berlaku jika hal tersebut menyebabkan masalahKematian orang lain, cedera serius, kerusakan properti, atau ancaman serius terhadap keselamatan publikhanya dapat digunakan ketika.

4. Siapa yang menentang RUU tersebut? a16z dan YC memimpin peluncuran serangan publisitas, Li Feifei dan Yang Likun men-tweet pertanyaan

Raksasa teknologi Silicon Valley, sejumlah besar perusahaan rintisan dan lembaga investasi telah menyatakan keraguan dan ketidakpuasan yang kuat terhadap rancangan undang-undang keselamatan AI di California.Salah satu yang bersuara paling keras adalah a16z, sebuah perusahaan modal ventura terkenal di Silicon Valley.a16z memiliki portofolio investasi yang kaya di bidang AI, termasuk perusahaan AI terkemuka yang sudah matang seperti OpenAI dan Mistral AI, serta bintang baru seperti World Labs yang baru didirikan oleh profesor Universitas Stanford, Li Feifei. Perusahaan-perusahaan ini memiliki skala dan jumlah pembiayaan yang lebih besar,Model yang mereka kembangkan dan sesuaikan dapat dimasukkan ke dalam lingkup peraturan.


▲Beberapa keberatan a16z (Sumber: stopb1047.com)

a16z berinisiatif membayar untuk membangun website dan menyediakan template surat keberatan kepada pengunjung, yang dapat dikirim langsung hanya dengan mengedit di website. a16z juga mencantumkan “6 dosa” di situs web ini dalam pandangan mereka tentang Undang-Undang Keamanan AI California:

1. RUU ini akan berdampak buruk pada investasi dan pengembangan AI di California.

2. RUU ini memberikan sanksi kepada pengembang/pengembang berdasarkan hasil yang tidak jelas. Tes yang relevan belum ada.

3. Definisi RUU yang tidak jelas dan tanggung jawab hukum yang ketat telah menimbulkan ketidakpastian dan risiko ekonomi yang besar bagi pengembang AI dan pemilik bisnis.

4. RUU ini mungkin memaksa penelitian AI dilakukan secara rahasia dan secara tidak sengaja mengurangi keamanan sistem AI.

5. RUU ini menimbulkan kerugian sistemik bagi pengembang open source dan startup, yang merupakan jantung dari inovasi dan usaha kecil di California.

6. RUU ini menghambat penelitian dan inovasi AI di Amerika Serikat dan memberikan peluang bagi negara-negara seperti Tiongkok untuk mengungguli Amerika Serikat dalam bidang AI.

Para pendiri banyak perusahaan investasi a16z juga menyatakan penolakan mereka terhadap California AI Safety Act. Li Feifei menerbitkan sebuah artikel di situs majalah Fortune yang menjelaskan alasan penolakannya secara rinci, percaya bahwa ada empat masalah utama dalam RUU ini:

1. Menghukum pengembang secara berlebihan dapat menghambat inovasi.

2. "Tombol mematikan" akan membatasi pekerjaan pengembangan open source dan menghancurkan komunitas open source.

3. Melemahkan penelitian AI di bidang akademis dan sektor publik, dan juga dapat menghalangi akademisi untuk menerima lebih banyak dana.

4. Hal ini tidak mengatasi potensi kerugian yang disebabkan oleh kemajuan AI, seperti bias atau deepfake.


▲Li Feifei menentang RUU Keamanan AI California (Sumber: X Platform)

Namun banyak netizen di kolom komentar yang tidak mempercayai pernyataan tersebut. Mereka meminta Li Feifei untuk mengungkapkan hubungan ketertarikannya dengan a16z.


▲Beberapa netizen mempertanyakan netralitas Li Feifei (Sumber: X Platform)

Sebagai inkubator paling terkenal dan berpengaruh di Amerika Serikat, YC adalah tempat lahirnya banyak startup AI.Lokasi operasi utama mereka saat ini adalah di California.Dari 260 startup pada angkatan musim dingin YC 2024, lebih dari setengahnya terkait dengan AI. YC juga berpendapat bahwa RUU ini dapat berdampak negatif pada industri dan ekosistem pengembang:

1、RUU ini harus menghukum pelaku penyalahgunaan alat, bukan pengembang.Seringkali sulit bagi pengembang untuk memprediksi kemungkinan penerapan model, dan pengembang mungkin masuk penjara karena kejahatan sumpah palsu.

2. Ambang batas regulasi belum bisa sepenuhnya menangkap dinamika perkembangan teknologi. Perusahaan non-California akan dapat mengembangkan teknologi AI dengan lebih bebas, yang mungkin berdampak pada inovasi di California.

3. “Kill Switch (mengacu pada kemampuan pengembang untuk mematikan model)” dapat melarang pengembangan AI open source dan menghambat kolaborasi dan transparansi open source.

4. Ungkapan RUU tersebut relatif kabur.Hal ini kemungkinan besar akan ditafsirkan sesuka hati oleh hakim.

Pernyataan YC ini mendapat dukungan bersama dari ratusan startup. YC juga mengadakan sejumlah konferensi terkait regulasi AI di California, yang memungkinkan kedua belah pihak untuk berkomunikasi.

Yann LeCun, kepala ilmuwan Meta dan pemenang Turing Award 2018, juga menentang RUU iniKlausul Tanggung Jawab Bersama dan Beberapa.Dia khawatir bahwa platform open source dapat dimintai pertanggungjawaban jika mereka gagal menilai risiko model dalam cakupannya secara akurat.


Sebagai pemain paling penting di bidang model AI open source saat ini, Meta Corporation menulis dalam surat penolakannya bahwa RUU ini memaksa pengembang open source untuk menanggung risiko hukum yang besar ketika melakukan open source, karena persyaratan untuk memastikan keamanan model tidak realistis . Mereka merekomendasikan agar anggota parlemen California mengacu pada undang-undang yang relevan di negara dan wilayah lain.Seperti persyaratan transparansi dan “pengujian tim merah” dalam EU AI Act. Microsoft, Google dan OpenAI juga memberikan komentar negatif terhadap RUU tersebut.

Anthropic, sebuah startup AI dengan "struktur B Corporation" yang unik, adalah salah satu dari banyak suara yang menentang RUU ini. Namun, tidak seperti perusahaan lain, mereka tidak berusaha mencegah pengesahan RUU tersebut, namun berpartisipasi dalam amandemen RUU tersebut , memberikan Badan Legislatif menulis surat yang merinci saran perbaikannya. Secara keseluruhan, Anthropic meyakini hal ituRUU ini harus beralih dari “penindakan sebelum menimbulkan dampak buruk” menjadi “pencegahan berbasis hasil”. Mereka juga menginginkan peraturan yang lebih ketat, fokus pada keamanan AI yang mutakhir, dan menghindari duplikasi persyaratan federal.

5. Siapa yang mendukung RUU tersebut? Hinton Bengio menulis surat dukungan, senator menuduh a16z menyebarkan rumor

Meskipun RUU Keamanan AI California menghadapi kontroversi segera setelah diusulkan, banyak pakar dan orang dalam industri mendukung peraturan tersebut. Pada tanggal 7 Agustus, saat RUU ini sekali lagi menghadapi gelombang kritik, pemenang Turing Award dan "Godfather of AI"Jeffrey Hinton(Geoffrey Hinton), pakar AI terkenal, pemenang Turing AwardJoshua Bengio(Yoshua Bengio), pakar hukum dunia maya, profesor di Harvard Law SchoolLawrence Lessig(Lawrence Lessig) dan penulis buku teks AI populer "Artificial Intelligence: A Modern Approach" dan profesor di University of California, BerkeleyStuart Russel(Stuart Russell) bersama-sama menulis surat kepada Badan Legislatif California untuk menyatakan "dukungan kuat" mereka terhadap California AI Safety Act.


▲Empat cendekiawan terkenal menulis surat yang mendukung California AI Safety Act (Sumber: safesecureai)

Keempat akademisi tersebut mengatakan bahwa mereka sangat prihatin dengan risiko AI dan bahwa Undang-Undang Keamanan AI California merupakan persyaratan minimum untuk mengatur teknologi tersebut secara efektif, tulis mereka:

RUU tersebut tidak memiliki sistem perizinan dan tidak mengharuskan perusahaan untuk mendapatkan izin dari lembaga pemerintah sebelum melakukan pelatihan atau penerapan model. Hal ini bergantung pada penilaian risiko yang dilakukan sendiri oleh perusahaan dan tidak mengharuskan perusahaan untuk bertanggung jawab bahkan jika terjadi bencana.

Sehubungan dengan risiko yang kita hadapi,Ini adalah undang-undang yang sangat longgar. Undang-undang yang mengatur AI saat ini tidak seketat undang-undang yang mengatur toko sandwich, dan menghapus peraturan mendasar ini berarti akesalahan bersejarah——Satu tahun kemudian, ketika sistem AI generasi berikutnya yang lebih kuat dirilis, kesalahan ini akan menjadi semakin jelas.

Mereka juga menekankan hal ituApakah risiko ini tidak berdasar atau nyata,, semua pihak terkait harus memikul tanggung jawab untuk memitigasi risiko. “Sebagai kelompok ahli yang paling mengetahui sistem ini,” mereka yakin risiko-risiko ini mungkin terjadi dan cukup signifikan sehingga kita perlu mengatasinya.Pengujian keamanan dan tindakan pencegahan yang masuk akal

Empat ahli juga mengutip skandal keselamatan Boeing baru-baru ini. Mereka percaya bahwa pesawat terbang, obat-obatan, dan teknologi kompleks lainnya telah menjadi sangat aman dan andal, yang merupakan hasil upaya bersama antara industri dan pemerintah.Ketika regulator melonggarkan aturan dan mengizinkan pengaturan mandiri, muncul masalah seperti Boeing yang sangat menakutkan bagi masyarakat dan industri.

Surat dukungan ini mendapat dukungan dari banyak netizen, namun sebagian pihak menilai Hinton dan Bengio sudah tidak lagi terlibat dalam pekerjaan di lini depan.Oleh karena itu, mereka tidak mempunyai suara dalam isu-isu yang relevan.

Beberapa mantan karyawan OpenAI juga mendukung RUU tersebut, termasuk Daniel Kokotajlo, yang secara sukarela melepaskan opsi OpenAI-nya dengan imbalan hak untuk mengkritik perusahaan secara bebas. Ia percaya bahwa klaim para pengkritik RUU bahwa kemajuan AI akan terhenti mungkin tidak akan terjadi.


▲ Pernyataan yang relevan dari Kokotayolo (Sumber: X Platform)

Simon Last, pendiri Notion, alat produktivitas AI unicorn bernilai puluhan miliar dolar, adalahIndustriBeberapa pendukung rancangan undang-undang keselamatan AI California. Dia menulis sebuah artikel di Los Angeles Times, salah satu media lokal paling berpengaruh di California, untuk mendukung RUU tersebut, yang mengatakan bahwa ketika undang-undang AI tingkat federal sulit diterapkan,Sebagai pusat teknologi di Amerika Serikat bahkan dunia, California memikul tanggung jawab penting. Ia percaya bahwa pengawasan terhadap model tidak hanya meningkatkan keamanannya, tetapi juga memfasilitasi startup AI yang membangun produk berdasarkan model dasar.Hal ini akan mengurangi beban usaha kecil dan menengah

Selain itu, ia juga berpendapat bahwa menekankan bahwa "peraturan harus fokus pada penggunaan AI yang berbahaya dan perilaku pengguna yang tidak pantas, bukan pada teknologi yang mendasarinya adalah salah." Karena undang-undang yang pertama telah diklasifikasikan sebagai ilegal di semua tingkatan, undang-undang California yang baru memberikan tujuan tersebutAspek yang hilang dari peraturan sebelumnya: Mencegah potensi bahaya.

Setelah YC dan a16z meluncurkan kampanye publisitas, Senator Negara Bagian California Wei Shangao, penulis utama California AI Safety Act, mengeluarkan surat panjang sebagai tanggapan atas keluhan terkait, mengatakan bahwa banyak pernyataan yang dibuat oleh kedua organisasi ini tentang California Undang-Undang Keamanan AI tidak akurat, dan beberapa Klaim tersebut merupakan "distorsi fakta yang provokatif", seperti RUU tersebut akan mengirim pengembang yang gagal memperkirakan risiko model secara akurat ke penjara, atau melarang rilis sumber terbuka.


▲ Tanggapan Wei Shangao terhadap YC dan a16z (Sumber: safesecureai)

Pada awal tahun 2023, Wei Shangao mulai menghubungi YC, namun ia mengatakan masih belum menerima masukan rinci dari YC tentang cara memperbaiki tagihan tersebut. a16z terlambat berpartisipasi dalam proses legislatif dan sejauh ini belum mengajukan amandemen substantif.

Dalam surat ini, Wei Shangao menanggapi beberapa kekhawatiran utama para penentang RUU tersebut:

1、Pengembang tidak akan masuk penjara karena gagal memprediksi risiko model.Pertama, pengembang start-up dan akademisi tidak perlu khawatir karena RUU tersebut tidak berlaku bagi mereka. Kedua, klausul sumpah palsu dalam RUU tersebut hanya berlaku bagi pengembang"dengan sengaja"Ini hanya berlaku jika pernyataan palsu dibuat, dan kesalahan penilaian yang tidak disengaja tentang kemampuan model tidak akan memicu klausul sumpah palsu (yang telah dihapus dari amandemen saat ini).

2、RUU ini tidak menciptakan tanggung jawab yang sepenuhnya baru.Berdasarkan undang-undang yang ada, baik pengembang model maupun pengembang individu dapat dituntut jika suatu model menyebabkan kerugian, dan hal ini berlaku untuk semua model dengan segala kemampuan dan semua individu yang dirugikan dapat menuntut. RUU baru California tidak hanya ituMembatasi ruang lingkup pengawasan, dan juga membatasi hak untuk menuntutJaksa Agung CaliforniaDandewan buruhpada kedua entitas.

3、RUU tersebut tidak akan menghambat inovasi California.RUU ini berlaku untuk semua perusahaan yang melakukan bisnis di California. Bahkan jika mereka memindahkan kantor pusatnya ke luar California, mereka harus mematuhi peraturan terkait (Catatan Zhixi: California adalah ekonomi terbesar kelima di dunia berdasarkan PDB dan memiliki ekosistem teknologi yang lengkap. Teknologi perusahaan Sulit untuk memisahkan diri dari California). Ketika California mengesahkan undang-undang privasi data dan undang-undang perlindungan lingkungan, banyak orang menyatakan bahwa hal ini akan menghambat inovasi, namun faktanya California masih memimpin inovasi.

4、Tombol pemutus (kill switch) dan persyaratan penilaian keamanan tidak akan menghambat pengembangan AI sumber terbuka.RUU tersebut kini telah direvisi dan memperkuat perlindungan AI open source. Persyaratan untuk model penghentian darurat dalam rancangan undang-undang hanya berlaku untuk model yang berada dalam kendali pengembang, tidak termasuk model sumber terbuka yang tidak terkontrol. RUU tersebut juga membentuk komite penasihat baru untuk mengadvokasi dan mendukung upaya pengembangan AI open source yang aman dan andal.

Wei Shangao juga memberikan "paket malas" bagi orang-orang yang peduli dengan RUU ini, dengan merangkum 6 poin penting dari RUU tersebut (lihat gambar di bawah).
▲ Poin-poin penting dari RUU ini (Sumber: safesecureai)

Kesimpulan: California telah mengambil langkah penting, dan masa depan RUU tersebut masih belum jelas

Meskipun RUU Keamanan AI California ditentang oleh sejumlah besar orang dalam industri, hasil dari beberapa organisasi jajak pendapat menunjukkan bahwa penduduk California pada umumnya memiliki sikap positif terhadap RUU ini.

Ketika secara resmi berhasil, mereka mungkin menghadapi tantangan di pengadilan dari lawan yang gigih seperti a16z. Hal ini akan menunda rancangan undang-undang tersebut sampai Mahkamah Agung AS mengeluarkan keputusan.

Baru-baru ini, Mahkamah Agung AS membatalkan "Doktrin Chevron" yang telah berlaku selama hampir 40 tahun dan mendukung suara badan pengatur. Prinsip ini mengharuskan hakim untuk tunduk pada interpretasi regulator pemerintah terhadap ketentuan hukum ketika ketentuan hukum tersebut tidak jelas. Penghapusan prinsip ini mencerminkan sikap konservatif Mahkamah Agung AS saat ini terhadap regulasi teknologi.