berita

Altman dituduh tidak jujur ​​​​tentang pekerjaan keamanan OpenAI

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Laporan Whip Bull, 3 Agustus, menurut laporan asing, setelah pelapor menuduh Komisi Sekuritas dan Bursa AS (SEC) bahwa perjanjian kerahasiaan perusahaan kecerdasan buatan OpenAI secara ilegal mencegah karyawan mengungkapkan masalah keamanan utama kepada anggota parlemen, OpenAI menghadapi tekanan yang semakin besar. Akan ada tekanan yang lebih besar untuk membuktikan bahwa mereka tidak menyembunyikan risiko AI.

Dalam suratnya kepada OpenAI kemarin, Senator Chuck Grassley (R-Iowa) meminta bukti bahwa OpenAI yang tidak lagi mewajibkan tanda tangan dapat menghalangi karyawannya untuk mengajukan permintaan Perjanjian untuk Melindungi Pengungkapan kepada regulator pemerintah.

Secara khusus, Grassley meminta OpenAI untuk memberikan perjanjian ketenagakerjaan, pesangon, tidak meremehkan dan kerahasiaan yang berlaku saat ini untuk meyakinkan Kongres bahwa kontrak tidak menghalangi pengungkapan.

Grassley mengatakan hal ini sangat penting agar kita dapat mengandalkan pelapor yang mengungkap ancaman yang muncul untuk membantu mengembangkan kebijakan AI yang efektif yang melindungi terhadap risiko AI yang timbul dari kemajuan teknologi.

Surat Grassley mengatakan dia rupanya meminta OpenAI dua kali untuk catatan ini tetapi tidak mendapat tanggapan.

Juru bicara Grassley, Clare Slattery, mengatakan kepada The Washington Post bahwa sejauh ini OpenAI belum menanggapi permintaan dokumen terbarunya.

“Tidak cukup hanya mengatakan Anda membuat pembaruan,” kata Grassley dalam pernyataan yang diberikan kepada Ars. "Fakta berbicara lebih keras daripada kata-kata. Altman perlu memberikan catatan dan menanggapi permintaan pengawasan saya sehingga Kongres dapat menilai secara akurat apakah OpenAI cukup melindungi karyawan dan penggunanya."

Selain meminta OpenAI untuk memperbarui perjanjian karyawannya baru-baru ini, Grassley juga mendesak OpenAI untuk lebih transparan mengenai jumlah total permintaan karyawan yang meminta pengungkapan federal sejak tahun 2023.

Para senator ingin mengetahui informasi apa yang ingin diungkapkan oleh karyawan kepada pejabat dan apakah OpenAI benar-benar menyetujui permintaan mereka.

Grassley juga meminta OpenAI untuk mengonfirmasi berapa banyak investigasi SEC yang telah dibuka sejak 2023.

Secara keseluruhan, dokumen-dokumen tersebut akan mengungkapkan apakah karyawan OpenAI masih dilarang melakukan pengungkapan federal, jenis pengungkapan apa yang ditolak OpenAI, dan sejauh mana SEC memantau OpenAI untuk menyembunyikan risiko keamanan.

Grassley menulis dalam suratnya: OpenAI harus memastikan bahwa karyawannya dapat memberikan pengungkapan yang dilindungi tanpa batasan yang melanggar hukum.

Dia telah meminta OpenAI untuk merespons pada tanggal 15 Agustus sehingga Kongres dapat melakukan pengawasan yang obyektif dan independen terhadap protokol keamanan dan perjanjian kerahasiaan OpenAI.

OpenAI tidak segera menanggapi permintaan komentar Ars.

Pada .

Dia juga menegaskan bahwa OpenAI ingin karyawan saat ini dan mantan karyawan merasa nyaman menyampaikan kekhawatiran.

“Ini penting bagi perusahaan mana pun, terutama bagi kami, karena ini merupakan bagian penting dari program keamanan kami,” tulis Altman. Pada bulan Mei, kami menghapuskan ketentuan yang tidak meremehkan karyawan saat ini dan mantan karyawan, serta ketentuan yang memberikan OpenAI hak untuk membatalkan ekuitas yang dimiliki (meskipun tidak pernah digunakan). Kami telah bekerja keras untuk memperbaikinya.

Pada bulan Juli, pelapor mengatakan kepada Komisi Sekuritas dan Bursa bahwa OpenAI harus diwajibkan untuk memberikan tidak hanya kontrak karyawan saat ini tetapi juga semua kontrak yang berisi perjanjian kerahasiaan untuk memastikan bahwa OpenAI tidak menutupi praktik historis atau terkini yang menutupi risiko keamanan AI. Mereka ingin semua karyawan saat ini dan mantan karyawan diberi tahu tentang kontrak apa pun yang berisi perjanjian kerahasiaan ilegal, dan OpenAI didenda untuk setiap kontrak ilegal.

Sam Altman dituduh meremehkan masalah keamanan AI

Namun seruan OpenAI untuk lebih transparan tidak hanya terbatas pada anggota parlemen saja. Sehari sebelum surat terbuka Grassley, CEO OpenAI Sam Altman merilis pernyataan di X yang mengklaim bahwa OpenAI telah mencurahkan sumber daya yang cukup untuk upaya keamanan sejak Juli lalu, namun pemeriksa fakta X mengatakan dalam komentarnya Pernyataan itu menyesatkan dan memicu kemarahan publik.

Altman menulis: Seperti yang kami katakan Juli lalu, kami berkomitmen untuk mengalokasikan setidaknya 20% sumber daya komputasi kami untuk upaya keamanan di seluruh perusahaan, yang menimbulkan kekhawatiran di komunitas bahwa banyak pembaca X yang bias menganggap hal ini memberikan lebih banyak konteks.

Catatan komunitas mencatat bahwa Altman mengacu pada blog bulan Juli yang secara eksplisit mengonfirmasi bahwa OpenAI mengalokasikan 20% sumber daya komputasi ke tim Super Alignment-nya. Dengan tim yang sekarang dibubarkan dan kepala ilmuwan yang bertanggung jawab atas Hyper-Alignment meninggalkan perusahaan, komentator X mengatakan klaim Altman menyesatkan publik tentang sumber daya komputasi apa yang sebenarnya dialokasikan OpenAI untuk upaya keamanan yang sekarang tidak jelas.

Beberapa X komentator meminta rincian lebih lanjut tentang upaya keamanan OpenAI saat ini. Dalam surat tertanggal 31 Juli sebagai tanggapan terhadap lima senator lainnya mengenai masalah keamanan AI, OpenAI menjelaskan upaya keamanannya secara lebih rinci. Perusahaan juga mengklarifikasi pernyataan Altman bahwa X telah menandainya sebagai memerlukan "lebih banyak konteks", dengan menulis bahwa sumber daya komputasi yang disebutkan dalam blog tidak boleh merujuk hanya pada tim Super Alignment.

OpenAI mengatakan dalam suratnya kepada para senator: Untuk lebih memajukan agenda penelitian keamanan kami, Juli lalu kami berkomitmen untuk mengalokasikan setidaknya 20% sumber daya komputasi untuk keamanan AI selama periode multi-tahun. Komitmen ini selalu berlaku pada upaya keamanan di seluruh perusahaan, bukan hanya tim tertentu.

Hal ini membingungkan sebagian orang karena blog OpenAI dengan jelas menyatakan bahwa OpenAI akan mencurahkan 20% sumber daya komputasi yang kami peroleh sejauh ini untuk memecahkan masalah koordinasi superintelijen selama empat tahun ke depan. Pada saat itu, OpenAI mengatakan bahwa taruhan penelitian fundamental utamanya adalah tim yang sudah diatur sebelumnya, yang "membutuhkan sumber daya komputasi karena melakukannya dengan baik sangat penting untuk mencapai misi kami."

Satu

OpenAI belum menanggapi akun meme tersebut, namun sebelumnya mengatakan bahwa tim yang sangat selaras sangat penting bagi keselamatan AI karena masyarakat membutuhkan terobosan ilmiah dan teknologi untuk memandu dan mengendalikan sistem AI yang lebih pintar dari kita.

OpenAI merinci inisiatif keamanan

Dalam surat OpenAI kepada para senator, kepala strategi Jason Kwon mengatakan kepada anggota parlemen bahwa OpenAI melindungi dari risiko dengan bekerja sama dengan pakar dari luar untuk mengevaluasi dan menyusun ulang model kami. Hal ini termasuk berkonsultasi dengan lebih dari 100 pakar eksternal yang membantu menilai risiko yang terkait dengan model terbaru kami, GPT-4o.

Kwon menulis: Temuan dan mitigasi keamanan dari pengujian tim merah tersedia untuk umum di kartu sistem yang menyertai model kami, dan OpenAI telah menerbitkan makalah tentang "Mengukur Risiko Kimia, Biologi, Radiologi, dan Nuklir (CBRN) yang Terkait dengan Sistem Kecerdasan Buatan ," Penelitian yang memperkirakan sejauh mana pekerjaan dan industri yang berbeda mungkin terpengaruh oleh model bahasa, mengevaluasi dampak model bahasa dalam mempengaruhi operasi, dan menjelaskan interpretasi keputusan sistem kecerdasan buatan.

Untuk lebih menjamin keamanan AI, Kwon mengatakan bahwa OpenAI akan melakukan penerapan berulang, pertama-tama merilis fitur-fitur baru seperti model video Sora atau mesin ucapan kepada kelompok terbatas, dan kemudian merilisnya secara luas ke publik.

Kwon menulis: Strategi ini memungkinkan kami mendapatkan masukan dari orang-orang di luar OpenAI, memperbarui pagar keselamatan kami sesuai kebutuhan, dan memberi tahu publik tentang fitur AI yang akan datang sebelum membuka model kami sepenuhnya.

Bagi karyawan yang mengembangkan fitur atau model baru yang masih takut akan pembalasan karena menyampaikan masalah keamanan, Kwon mengatakan OpenAI meluncurkan hotline integritas pada bulan Maret. Saluran ini memungkinkan karyawan untuk melaporkan masalah secara anonim jika mereka merasa tidak nyaman untuk menyampaikan masalah melalui saluran lain yang ada.

Meskipun OpenAI mengatakan bahwa karyawan bebas untuk membicarakan kekhawatiran apa pun, jelas bahwa jika OpenAI menganggap informasi tertentu sebagai risiko keamanan, informasi tersebut tetap tidak dapat dibagikan.

Kwon menulis: OpenAI terus membedakan antara menyampaikan kekhawatiran dan membocorkan rahasia dagang perusahaan. Yang terakhir (hak yang dilindungi untuk mengungkapkan informasi) tetap dilarang berdasarkan perjanjian kerahasiaan dengan karyawan saat ini dan mantan karyawan. Kami yakin larangan ini sangat penting mengingat dampak teknologi kami terhadap keamanan nasional AS.

Mengingat pengecualian ini memungkinkan OpenAI untuk menolak beberapa pengungkapan federal, Grassley mungkin ingin mengetahui apakah OpenAI mungkin telah menolak pengungkapan secara tidak patut atas dasar perlindungan rahasia dagang.

Surat Grassley memperjelas bahwa para senator prihatin dengan risiko terhadap keamanan kebijakan mandiri perusahaan.