berita

openai dan anthropic setuju untuk membiarkan pemerintah as mengevaluasi keselamatan sebelum meluncurkan model baru

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house melaporkan pada tanggal 30 agustus bahwa perusahaan kecerdasan buatan openai dan anthropic telah setuju untuk mengizinkan pemerintah as mengakses model kecerdasan buatan baru sebelum perusahaan-perusahaan ini merilis model ini untuk membantu meningkatkan keamanan mereka.


sumber gambar pexels

institut keamanan ai as mengumumkan pada hari kamis bahwa hal inikedua perusahaan telah menandatangani nota kesepahaman dengan lembaga tersebut, berkomitmen untuk menyediakan akses sebelum dan sesudah model tersebut dirilis ke publik.. pemerintah as mengatakan langkah ini akan membantu mereka bersama-sama menilai risiko keamanan dan memitigasi potensi masalah. badan tersebut mengatakan akan bekerja sama dengan mitranya di inggris untuk memberikan masukan mengenai peningkatan keselamatan.

chief strategy officer openai jason kwon menyatakan dukungannya atas kerja sama ini:

“kami sangat mendukung misi american ai safety institute dan berharap dapat bekerja sama untuk mengembangkan praktik dan standar terbaik untuk keselamatan model ai. kami yakin institut tersebut memainkan peran penting dalam memastikan kepemimpinan as dalam pengembangan peran ai yang bertanggung jawab kami berharap melalui kerja sama dengan institut ini, kami dapat memberikan kerangka kerja yang dapat dijadikan pembelajaran bagi dunia.”

anthropic juga menyatakan bahwa sangat penting untuk membangun kemampuan menguji model ai secara efektif. jack clark, salah satu pendiri dan kepala kebijakan perusahaan, mengatakan:

“memastikan bahwa ai aman dan dapat diandalkan sangat penting agar teknologi ini dapat memberikan dampak positif. melalui pengujian dan kerja sama tersebut, risiko yang ditimbulkan oleh ai dapat ditemukan dan dikurangi dengan lebih baik, dan pengembangan ai yang bertanggung jawab dapat dipromosikan. kami berkomitmen untuk kami berkomitmen untuk bangga menjadi bagian dari pekerjaan penting ini dan berharap dapat menetapkan standar baru untuk keamanan dan kepercayaan ai.”

berbagi akses terhadap model kecerdasan buatan merupakan langkah penting ketika legislator federal dan negara bagian mempertimbangkan cara untuk membatasi teknologi tanpa menghambat inovasi. it house mencatat bahwa pada hari rabu, legislator california mengesahkan undang-undang inovasi keamanan model kecerdasan buatan frontier (sb 1047), yang mewajibkan perusahaan kecerdasan buatan di california untuk mengambil langkah-langkah keamanan khusus sebelum melatih model dasar tingkat lanjut. hal ini mendapat penolakan dari perusahaan kecerdasan buatan termasuk openai dan anthropic, yang memperingatkan bahwa hal itu dapat merugikan pengembang open source yang lebih kecil, meskipun ruu tersebut telah direvisi dan masih menunggu persetujuan dari tanda tangan gubernur california gavin newsom.

sementara itu, gedung putih telah berupaya untuk mendapatkan komitmen sukarela dari perusahaan-perusahaan besar mengenai langkah-langkah keamanan ai. beberapa perusahaan ai terkemuka telah membuat komitmen tidak mengikat untuk berinvestasi dalam penelitian keamanan siber dan diskriminasi serta berupaya memberi watermark pada konten yang dihasilkan ai.

elizabeth kelly, direktur institut nasional untuk keamanan kecerdasan buatan, mengatakan dalam sebuah pernyataan bahwa perjanjian baru ini hanyalah “permulaan, tetapi ini merupakan tonggak penting dalam upaya kami untuk membantu mengelola masa depan kecerdasan buatan secara bertanggung jawab.”