uutiset

openai ja anthropic sopivat, että yhdysvaltain hallitus arvioi turvallisuutta ennen uuden mallin lanseerausta

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house raportoi 30. elokuuta, että tekoälyyritykset openai ja anthropic ovat sopineet sallivansa yhdysvaltain hallitukselle pääsyn merkittäviin uusiin tekoälymalleihin ennen kuin nämä yritykset julkaisevat nämä mallit parantaakseen turvallisuuttaan.


kuvan lähde pexels

yhdysvaltain tekoälyn turvallisuusinstituutti ilmoitti torstaina, että tämämolemmat yhtiöt ovat allekirjoittaneet yhteisymmärryspöytäkirjan instituutin kanssa, jotka sitoutuvat tarjoamaan pääsyn ennen mallin julkista julkaisua ja sen jälkeen. yhdysvaltain hallitus sanoi, että siirto auttaa heitä arvioimaan yhdessä turvallisuusriskejä ja lieventämään mahdollisia ongelmia. virasto ilmoitti tekevänsä yhteistyötä brittiläisen vastineensa kanssa antaakseen palautetta turvallisuusparannuksista.

openai:n strategiajohtaja jason kwon ilmaisi tukensa yhteistyölle:

"tuemme vahvasti american ai safety instituten tehtävää ja odotamme innolla yhteistyötä kehittääksemme tekoälymallien turvallisuutta koskevia parhaita käytäntöjä ja standardeja. uskomme, että instituutilla on keskeinen rooli yhdysvaltojen johtajuuden varmistamisessa tekoälyn vastuullisessa kehittämisessä toivomme, että yhteistyöllä instituutin kanssa voimme tarjota puitteet, joista maailma voi oppia.

anthropic totesi myös, että on erittäin tärkeää luoda kyky testata tekoälymalleja tehokkaasti. jack clark, yksi perustajista ja yhtiön politiikkapäällikkö, sanoi:

"tekoälyn turvallisuuden ja luotettavuuden varmistaminen on ratkaisevan tärkeää, jotta tällä tekniikalla olisi myönteinen vaikutus. tällaisen testauksen ja yhteistyön avulla tekoälyn tuomat riskit voidaan paremmin havaita ja vähentää ja vastuullista tekoälykehitystä voidaan edistää. olemme sitoutuneet siihen, että olemme olen ylpeä saadessani olla osa tätä tärkeää työtä ja toivon voivamme asettaa uudet standardit tekoälyn turvallisuudelle ja luotettavuudelle."

tekoälymallien käyttöoikeuden jakaminen on tärkeä askel, kun liittovaltion ja osavaltioiden lainsäätäjät harkitsevat, kuinka teknologiaa voidaan rajoittaa tukahduttamatta innovaatioita. it house totesi, että kalifornian lainsäätäjät hyväksyivät keskiviikkona frontier artificial intelligence model security innovation act -lain (sb 1047), joka vaatii kalifornian tekoälyyrityksiä ryhtymään erityisiin turvatoimiin ennen edistyneiden perusmallien kouluttamista. tämä vastusti tekoälyyrityksiä, mukaan lukien openai ja anthropic, jotka varoittivat, että se voi vahingoittaa pienempiä avoimen lähdekoodin kehittäjiä, vaikka lakiesitystä on sittemmin tarkistettu ja se odottaa edelleen kalifornian kuvernöörin gavin newsomin allekirjoitusta.

samaan aikaan valkoinen talo on yrittänyt saada suurilta yrityksiltä vapaaehtoisia sitoumuksia tekoälyn turvatoimiin. useat johtavat tekoälyyritykset ovat tehneet ei-sitovia sitoumuksia investoida kyberturvallisuuden ja syrjinnän tutkimukseen ja työskennellä tekoälyn tuottaman sisällön vesileimauksen parissa.

elizabeth kelly, national institute for artificial intelligence safetyn johtaja, sanoi lausunnossaan, että nämä uudet sopimukset ovat vasta "alkua, mutta ne ovat tärkeä virstanpylväs pyrkimyksissämme auttaa vastuullisesti hallitsemaan tekoälyn tulevaisuutta".