uutiset

Turing-jätti hajoaa jälleen! Hintonin tukema Kalifornian tekoälyn rajoituslaki hyväksyttiin alun perin, LeCun, Li Feifei, Wu En

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Uusi viisausraportti

Toimittaja: Niin unelias

[Johdatus uuteen viisauteen]Kalifornian "AI Restriction Act" hyväksyttiin alun perin onnistuneesti tekoälymagnaattien, suurten teknologiayritysten, startup-yritysten ja pääomasijoittajien voimakkaan vastustuksen keskellä.

Kuten me kaikki tiedämme, eri tieteiselokuvien tulkintoja lukuun ottamatta tekoäly ei ole tappanut ketään todellisessa maailmassa, eikä se ole käynnistänyt suuria kyberhyökkäyksiä.

Jotkut Yhdysvaltain lainsäätäjät kuitenkin toivovat edelleen, että riittävä turvallisuus voidaan toteuttaa ennen kuin tästä dystooppisesta tulevaisuudesta tulee totta.


Juuri tällä viikolla Kalifornian rajan tekoälymallin turvallisuusinnovaatiolaki SB 1047 otti jälleen tärkeän askeleen kohti lakia.


Yksinkertaisesti sanottuna SB 1047 estää tekoälyjärjestelmiä aiheuttamasta joukkouhreja tai käynnistämästä kyberturvallisuushäiriöitä, jotka maksavat yli 500 miljoonaa dollaria asettamalla kehittäjät vastuuseen.

Tiedemaailman ja teollisuuden vastustus oli kuitenkin niin voimakasta, että Kalifornian lainsäätäjät tekivät hieman kompromisseja lisäämällä useita AI-startup Anthropicin ja muiden vastustajien ehdottamia muutoksia.

Alkuperäiseen ehdotukseen verrattuna nykyinen versio vähentää Kalifornian hallituksen valtaa pitää tekoälylaboratoriot vastuullisina.


Laskun osoite: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

Mutta silti (melkein) kukaan ei pidä SB 1047:stä.

Tekoälyjättiläiset, kuten Yann LeCun, Li Feifei ja Ng Enda, ovat toistuvasti ilmaisseet tyytymättömyytensä tähän lakiin, joka "tukeuttaa avoimen lähdekoodin tekoälyn ja pakottaa tekoälyn innovoinnin keskeyttämään tai jopa lopettamaan".




Myös erilaisia ​​yhteisiä kirjeitä syntyy peräkkäin:

Yli 40 tutkijaa Kalifornian yliopistosta, Etelä-Kalifornian yliopistosta, Stanfordin yliopistosta ja Kalifornian teknillisestä korkeakoulusta vetosivat vahvasti olemaan hyväksymättä tätä lakia.



Ja kahdeksan kongressin jäsentä, jotka edustivat Kalifornian eri piirejä, kehottivat kuvernööriä veto-oittamaan lakiesityksen.




LeCun jopa kopioi alkuperäisen viestin, jota hän käytti, kun hän pyysi tekoälytutkimuksen keskeyttämistä – ole hyvä ja keskeytä tekoälylainsäädäntö kuudeksi kuukaudeksi!


Joten kysymys kuuluu, miksi edellisessä artikkelissa käytettiin sanaa "melkein kaikki"?

Koska LeCunin lisäksi kaksi muuta Turing-jättiläistä, Yoshua Bengio ja Geoffrey Hinton, tukevat voimakkaasti tämän lain hyväksymistä.

Minusta jopa tuntuu, että nykyiset ehdot ovat hieman liian löysät.


Vanhempina tekoälyteknologian ja politiikan tutkijoina kirjoitamme ilmaistaksemme vahvan tukemme Kalifornian senaatin lakiehdotukselle 1047. SB 1047 määrittelee perusvaatimukset tämän tekniikan tehokkaalle säätelylle. Se ei ota käyttöön lupajärjestelmää, ei vaadi yrityksiä hankkimaan lupaa valtion virastoilta ennen koulutusta tai mallien käyttöönottoa, luottaa siihen, että yritykset arvioivat riskejä itse, eikä aseta yrityksiä tiukasti vastuuseen edes katastrofin sattuessa. Tämä on suhteellisen lievä lainsäädäntö suhteessa kohtaamiemme riskien laajuuteen. Lakiehdotuksen perustoimenpiteiden kumoaminen olisi historiallinen virhe – virhe, joka tulee vieläkin ilmeisemmäksi vuoden kuluttua, kun seuraavan sukupolven tehokkaampia tekoälyjärjestelmiä julkaistaan.

Nykyään SB 1047 läpäisi suhteellisen helposti Kalifornian lainsäätäjässä, vaikka jotkut Yhdysvaltain kongressiedustajat, tunnetut tekoälytutkijat, suuret teknologiayritykset ja pääomasijoittajat vastustivat voimakkaasti.

Seuraavaksi SB 1047 menee Kalifornian yleiskokoukseen lopullista äänestystä varten. Uusimpien muutosten vuoksi lakiehdotuksen hyväksymisen jälkeen se on lähetettävä takaisin Kalifornian senaattiin äänestystä varten.

Jos molemmat äänet menevät läpi, SB 1047 lähetetään kuvernöörille odottamaan lopullista veto-oikeutta tai lain allekirjoittamista.

Mitä malleja ja yrityksiä rajoitetaan?

SB 1047:n vaatimusten mukaan kehittäjien tai malleja kehittävien yritysten on oltava vastuussa siitä, että heidän tekoälymallejaan ei käytetä "merkittävän haitan" aiheuttamiseen.

Kuten joukkotuhoaseiden luominen tai yli 500 miljoonaa dollaria maksavien kyberhyökkäysten käynnistäminen. Muuten, CrowdStriken "Global Windows Blue Screen Incident" aiheutti yli 5 miljardin dollarin tappiot.

SB 1047:n säännöt koskevat kuitenkin vain erittäin suuria tekoälymalleja – toisin sanoen koulutuskustannukset ovat vähintään 100 miljoonaa dollaria ja liukulukuoperaatioiden määrä ylittää 10^26. (Perustuu periaatteessa GPT-4:n koulutuskustannuksiin)

Sanotaan, että Metan seuraavan sukupolven Llama 4:n vaatima laskentamäärä kasvaa 10-kertaiseksi, ja siksi sitä säätelee myös SB 1047.

Avoimen lähdekoodin malleista ja niiden hienosäädetyistä versioista vastaavat alkuperäiset kehittäjät. Ellei hinta ylitä 3 kertaa alkuperäistä mallia.

Tästä näkökulmasta ei ole ihme, että LeCunin reaktio oli niin väkivaltainen.

Lisäksi kehittäjien on luotava testausmenettelyjä, jotka käsittelevät tekoälymallin riskejä, ja palkattava kolmannen osapuolen auditoijat vuosittain arvioimaan tekoälyn turvallisuuskäytäntöjään.

Malleihin perustuville tekoälytuotteille on kehitettävä vastaavat suojausprotokollat ​​väärinkäytösten estämiseksi, mukaan lukien "hätäpysäytyspainike", joka sammuttaa koko tekoälymallin.

jne……

Mikä on SB 1047:n nykyinen toiminto?

Nykyään SB 1047 ei enää salli Kalifornian oikeusministerin haastaa tekoälyyrityksiä oikeuteen huolimattomista turvatoimista ennen kuin katastrofi tapahtuu. (Anthropicin ehdotus)

Sen sijaan Kalifornian oikeusministeri voisi hakea kieltomääräystä, joka vaatii yritystä lopettamaan vaarallisena pitämänsä toiminnan, ja voi silti haastaa tekoälykehittäjät oikeuteen, jos heidän mallinsa johtavat katastrofaalisiin tapahtumiin.

SB 1047 ei enää perusta uutta valtion virastoa "Frontier Modeling Division (FMD)", joka alun perin sisällytettiin lakiehdotukseen.

Suu- ja sorkkataudin ydin, Frontier Model Committee, perustettiin kuitenkin edelleen ja sijoitettiin nykyisen valtion toimintaviraston yhteyteen, ja sen kokoa laajennettiin aiemmasta 5 henkilöstä 9 henkilöön. Valiokunta asettaa edelleen laskennalliset kynnysarvot katetuille malleille, antaa turvallisuusohjeita ja määräyksiä tilintarkastajille.

SB 1047:ssä on myös löysempi sanamuoto tekoälymallien turvallisuuden takaamiseksi.

Nyt kehittäjien tarvitsee vain tarjota "kohtuullinen hoito" varmistaakseen, että tekoälymallit eivät aiheuta merkittävää katastrofiriskiä aiemmin vaaditun "kohtuullisen varmuuden" sijaan.

Lisäksi kehittäjien tarvitsee vain lähettää julkinen "lausunto", jossa hahmotellaan turvatoimenpiteensä, eikä heidän tarvitse enää toimittaa sertifikaattia tietoturvatestien tuloksista väärän valaan rangaistuksen alaisena.

Avoimen lähdekoodin hienosäätömalleille on myös erillinen suojaus. Jos joku käyttää alle 10 miljoonaa dollaria mallin hienosäätöön, häntä ei pidetä kehittäjänä ja vastuu jää mallin alkuperäiselle suurelle kehittäjälle.

Li Feifei kirjoitti kerran henkilökohtaisesti kritisoivan artikkelin

SB 1047:n vaikutus tekoälyteollisuuteen on nähtävissä Fortune-lehden "AI Godmother" Li Feifein kolumnissa:

"Jos siitä tulee laki, SB 1047 vahingoittaa Amerikan syntymässä olevaa tekoälyekosysteemiä, erityisesti niitä osia, jotka ovat jo heikommassa asemassa: julkinen sektori, korkeakoulut ja pienet teknologiayritykset rankaisee tarpeettomasti kehittäjiä, tukahduttaa avoimen lähdekoodin yhteisön ja rajoittaa akateemista. tutkimus ei myöskään pysty ratkaisemaan todellista ongelmaa."


Ensinnäkin SB 1047 rankaisisi kehittäjiä kohtuuttomasti ja tukahduttaisi innovaatiot.

Tapauksissa, joissa tekoälymallia käytetään väärin, SB 1047 asettaa syyn vastuulle ja mallin alkuperäiselle kehittäjälle. Jokaiselle tekoälykehittäjälle, erityisesti aloitteleville ohjelmoijille ja yrittäjille, on mahdotonta ennustaa malleilleen kaikkea mahdollista käyttöä. SB 1047 pakottaa kehittäjät ryhtymään suojatoimiin - mitä tulee välttää hinnalla millä hyvänsä.

Toiseksi SB 1047 rajoittaa avoimen lähdekoodin kehitystä.

SB 1047 edellyttää, että kaikissa malleissa, jotka ylittävät tietyn kynnyksen, on oltava "hätäpysäytyspainike", mekanismi, joka voi sammuttaa ohjelman milloin tahansa. Jos kehittäjät pelkäävät, että heidän lataamansa ja rakentamansa ohjelmat poistetaan, he epäröivät koodata tai tehdä yhteistyötä. Tämä hätäpysäytyspainike vaikuttaa vakavasti avoimen lähdekoodin yhteisöön – ei vain tekoälyyn, vaan lukemattomiin innovaatiolähteisiin niinkin erilaisilla aloilla kuin GPS, MRI ja itse Internet.

Kolmanneksi SB 1047 heikentää tekoälytutkimusta julkisella sektorilla ja korkeakouluissa.

Avoimen lähdekoodin kehittäminen on tärkeää yksityisellä sektorilla, mutta vielä enemmän korkeakouluissa, jotka eivät voi edistyä ilman yhteistyötä ja mallitietojen saatavuutta. Kuinka tutkijat voivat kouluttaa seuraavan sukupolven tekoälyjohtajia, jos heillä ei ole pääsyä asianmukaisiin malleihin ja tietoihin? Hätäpysäytyspainike heikentäisi entisestään akateemista maailmaa, joka on jo ennestään datan ja tietojenkäsittelyn haitassa. SB 1047 antaa kohtalokkaan iskun akateemiseen tekoälyyn aikana, jolloin meidän pitäisi investoida enemmän julkisen sektorin tekoälyyn.

Eniten huolestuttavaa on, että SB 1047 ei käsittele tekoälyn edistymisen mahdollisia riskejä, mukaan lukien harhaa ja syväväärennöksiä. Sen sijaan se asettaa hyvin mielivaltaisen kynnyksen – tietyn määrän laskentatehoa tai mallin, jonka kouluttaminen maksaa 100 miljoonaa dollaria. Tämä toimenpide ei ainoastaan ​​tarjoa suojaa, vaan se rajoittaa innovointia useilla aloilla, myös korkeakouluissa.

Li Feifei sanoi, ettei hän vastusta tekoälyn hallintoa. Lainsäädäntö on kriittinen tekijä tekoälyn turvalliselle ja tehokkaalle kehitykselle. Tekoälypolitiikan on kuitenkin tuettava avoimen lähdekoodin kehitystä, asetettava yhtenäiset ja kohtuulliset säännöt ja lisättävä kuluttajien luottamusta.

On selvää, että SB 1047 ei täytä näitä standardeja.

Viitteet:

https://techcrunch.com/2024/08/15/california-weakens-bill-to-prevent-ai-disasters-before-final-vote-taking-advice-from-anthropic/

https://techcrunch.com/2024/08/15/california-ai-bill-sb-1047-aims-to-prevent-ai-disasters-but-silicon-valley-warns-it-will-cause-one/

https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/