2024-08-16
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
älykkäitä asioita
Kirjailija Chen Junda
EditPanken
Zhidongxi raportoi 16. elokuuta, että juuri nyt Kalifornian kiistanalainen "Frontier AI Model Safety Innovation Act" (tunnetaan myöhemmin nimellä California AI Safety Act) julkistettiinheikentynyt merkittävästiMyöhemmin se läpäisi Kalifornian edustajainhuoneen määrärahakomitean arvioinnin.Oikeudellisten vaikeuksien sääntely kansallisella tasollaDilemman keskellä tästä on tullut tärkeä askel Yhdysvalloille tekoälyn säätelyssä. Jotkut teknologiayhteisön edustajat kuitenkin uskovat, että tämäSe vahingoittaa viime kädessä Kaliforniaa ja jopa Yhdysvaltojen johtavaa asemaa tekoälyn alalla.
Suurin oikaisu muutetussa lakiehdotuksessa on seei enää sallittuKalifornian oikeusministeri haastoi tekoälyyritykset oikeuteen turvallisuusongelmien huomiotta jättämisestä ennen katastrofaalista tapahtumaa. Alkuperäisessä lakiehdotuksessa määrätään, että niin kauan kuin tilintarkastajat havaitsevat, että tekoälyyrityksillä on laitonta toimintaa päivittäisessä toiminnassa, yritykset voidaan asettaa syytteeseen. Tämä merkitsee laskuaSääntelyn painopiste siirtyy todellisiin haittoihin, tulee myösVähennä yritysten painetta noudattaa niitä.
Suurin osa yhdysvaltalaisista teknologiayrityksistä ja tekoälyn startupeista toimii Kaliforniassa.tulee lain alaisena.Erityisesti tämä lakiesitys keskittyy pääasiassa "Huippuluokan AI-malleja"Ainoastaan kehittäjät, joiden koulutusmallien laskentatehokustannukset ylittävät 100 miljoonaa dollaria, kohtaavat sääntelyvaatimukset. Nykyiset mallit eivät ole valvonnan piirissä. TulevaisuudessaLlama 4 ja GPT-5 voivat olla sen tärkeimmät sääntelykohteet.
Kotimaisille yrityksille, jos teet vain hienosäätöä ja muita operaatioita avoimen lähdekoodin pohjalta, on suuri todennäköisyys, että se ei kuulu valvonnan piiriin. Laki vaatii kuitenkin pilvipalveluntarjoajien keräämään asiakastietoja, IP-osoitteita, maksutapoja ja muita tietoja, mikä helpottaa viranomaisten jäljitettävyystyötä. Jos valvontaa kiristetään edelleen, tämä voi muuttuaSääntelyriskit, joita kohtaavat eräät kiinalaiset tekoälyyritykset, jotka käyttävät ulkomaista laskentatehoa koulutukseen.
Valvonnan piiriin kuuluvien yritysten tulisiryhtyä ennakoiviin toimiinMallin väärinkäytön välttämiseksi sinulla on myös oltavahätäpysäytysmallikyky. Lisäksi heidän on toimitettava julkinen lausunto, jossa kerrotaan heidän turvallisuuskäytäntöjään. Lakiesitys esittelee "Vuosittainen tarkastus”-järjestelmässä kehittäjien on palkattava riippumattomia tarkastajia arvioimaan vaatimustenmukaisuutta vuosittain.
Kun laitonta toimintaa tapahtuu, yritykset voivat joutua kohtaamaan10 miljoonasta 30 miljoonaan dollariinTämä summa kasvaa mallikoulutuksen kustannusten noustessa.
Tekoälypiiri jakautui kahteen leiriin, ja siitä käytiin kiivas keskustelu.
2018 Turing-palkinnon voittajaJeffrey Hinton(Geoffrey Hinton) jaJoshua Bengio(Yoshua Bengio) ilmaisi tukensa ja uskoi, että Kalifornian tekoälyn turvallisuuslaki on tehokas tekoälyteknologian sääntely.Vähimmäisvaatimukset”。
Sadat yrittäjät allekirjoittivatInkubaattori YCYli 100 akateemikkoa Kaliforniassa kirjoitti myös vastustuskirjeitä.Pääomasijoituslaitos a16zLuo verkkosivusto erityisesti lain kuuden rikoksen yksityiskohtiin, Stanfordin yliopiston professoriLi FeifeiErityisesti tviitattu tuomitsemaan, pääasia on, että tämä lakiehdotus estää Kalifornian tekoälyinvestointeja ja kehitystä,Vahingoittaa merkittävästi avoimen lähdekoodin ekosysteemiä, ei ota huomioon tekoälyn aiheuttamia merkittäviä riskejä.
Kalifornian osavaltion senaattori Scott Wiener, Kalifornian tekoälyä koskevan lain kirjoittaja, kiisti kuitenkin jotkin lakiin kohdistuvat kritiikit sanomalla, että a16z ja YCtietoisesti vääristelee tosiasioita, tämä lakiesitys on optimointi nykyisen oikeudellisen kehyksen puitteissa, se parantaa valvonnan tarkoituksenmukaisuutta, ei aseta suurta määrää kehittäjiä vankilaan eikä vahingoita innovaatioita ja avoimen lähdekoodin tekoälyä.
Zhixixi on koonnut suuren määrän tietoa ja koonnut tämän lakiesityksen sisällön ja siihen liittyvät keskustelut seuraaviin viiteen kysymykseen ja vastaukseen:
1. Mikä on soveltamisala? Useimmat olemassa olevat mallit eivät ole sovellettavissa, ja Llama 4 ja GPT-5 voivat kuulua sääntelyn piiriin
Tehokkaan valvonnan saavuttamiseksi tällä lakiehdotuksella oli alun perin tarkoitus luoda "Frontier Model Department (FMD)" asiaankuuluvien määräysten täytäntöönpanoa varten. Tämänpäiväisten tarkistusten myötä tämä jaosto muuttuu Kalifornian hallituksen viraston yhdeksänjäseniseksi komiteaksi, johon kuuluu edustajia tekoälyteollisuudesta, avoimen lähdekoodin yhteisöstä ja tiedemaailmasta. Kalifornian kuvernööri ja lainsäätäjä nimittävät sen. Frontier Models Council asettaa edelleen laskennalliset kynnykset katetuille malleille, antaa turvallisuusohjeita ja määräyksiä tilintarkastajille.
Kalifornia on yksi AI-kehityksen keskuksista Yhdysvalloissa ja jopa koko maailmassa. Tämän lakiehdotuksen mukaan heidän kaikkien on noudatettava Kalifornian tekoälyn turvallisuuslain asiaa koskevia säännöksiä. Tämän lakiesityksen todellista soveltamisalaa rajoittavat kuitenkin merkittävästi mallin ominaisuudet.Ehkä vain suuren mallitilan johtavia toimijoita säännellään tällä lakiehdotuksella tulevina vuosina.
▲ Kuvakaappaus osasta Kalifornian tekoälyä koskevaa lakia (Lähde: Kalifornian senaatin virallinen verkkosivusto)
Tässä lakiehdotuksessa arvioidaan, pitäisikö malli sisällyttää valvonta-alueeseen mallikoulutuksessa käytetyn laskentatehon ja laskentatehokustannusten perusteella, eli luokitella "Katettu malliAsiaa koskevat määräykset voidaan tiivistää kahteen kohtaan:
1. Käytä ennen 1. tammikuuta 202710^26ja enemmän kokonaisluku- tai liukulukuoperaatioita (100 miljoonaa dollaria laskentatehon keskimääräisen markkinahinnan perusteella) tai käyttö3*10^25Alueen mallin laskentateholla hienosäädön jälkeen saatu malli listataan alueen sisäiseksi malliksi.
2. 1. tammikuuta 2027 jälkeen California's ottaa yllä olevat standardit käyttöönHuippuluokan mallin säädinTee arvio. Jos osasto muuttaa laskentatehon kynnystä, uusi standardi tulee voimaan, jos osasto päättää, ettei muutoksia tarvita, alkuperäistä standardia käytetään edelleen. Lisäksi vuoden 2026 jälkeen alkuperäisen standardin 100 miljoonan dollarin pitäisiSäädä vastaavasti inflaation huomioon ottamiseksi.
Joten mitkä nyt julkaistuista malleista kuuluvat tähän valikoimaan? On monia tapoja laskea mallikoulutuksessa käytetty laskentateho, kun OpenAI arvioi sen karkeasti:
FLOPS=6ND
(jossa N on parametrien määrä ja D on merkkien määrä)
Tällä laskentamenetelmällä ja avoimen lähdekoodin mallidatan avulla voimme karkeasti arvioida mallien tällä hetkellä käyttämän laskentatehon tason:
Laama 3 70B
Siinä on 70 miljardia parametria ja se käyttää 15T tokenia harjoitusdataa harjoituksen aikana, joten käytetty laskentateho on suunnilleen:
6*70B*15T= 6,3*10^24 FLOPSIA
Laama 3.1 405B
Siinä on 405 miljardia parametria ja se käyttää 15,6 T tokenia harjoitusdataa harjoituksen aikana, joten käytetty laskentateho on suunnilleen:
6*405B*15.6T=3.79*10^25 FLOPSIA
▲Llama 3.1 405B:hen liittyvät tiedot (Lähde: Hugging Face)
Tämä laskentamenetelmä on suhteellisen karkea ja voi poiketa suuresti todellisesta tilanteesta, mutta sillä on silti referenssimerkitystä. Tämän tuloksen mukaanLlama 3.1 405B, avoimen lähdekoodin mallien kuningas, ei tällä hetkellä listata mallia lakiesityksen piiriin., malli luetellaan alueen sisällä olevaksi malliksi vain, jos se käyttää täydet 2,6 kertaa Llama 3.1 405B:n laskentatehoa.
Näitä tietoja tukee myös lausunto avoimessa kirjeessä, joka vastasi Kalifornian osavaltion senaattorin William Wilsonin, tämän lakiesityksen laatijan, lakia koskevaan kiistaan. Hän kirjoitti kirjeessä: "Tällä hetkellä julkisesti julkaistussa mallissaMikään malli ei ole saavuttanut 10^26 FLOP:n laskentatehon kynnystä”。
Pitkään tulevaisuudessa valtaosa pienistä ja keskisuurista mallikehitysyrityksistä ja itsenäisistä kehittäjistä ei ehkä tarvitse huolehtia tämän laskun valvonnasta. Lakiesityksen laskentatehokynnyksen ja pääomakynnyksen mukaan sen pääasiallisia sääntelykohteita ovat mm.OpenAI, Meta, GoogleTällaisia merkittäviä toimijoita AI-kentällä jaJohtavia startup-yrityksiä, jotka ovat saaneet suuria investointeja.
OpenAI:n toimitusjohtaja Sam Altmanin julkisen lausunnon mukaan GPT-4:n koulutuskustannukset ovat noin 100 miljoonaa dollaria. On epäselvää, sisältääkö nämä kustannukset muita investointeja kuin laskentatehoa. Jos GPT-5 tai muita myöhempiä OpenAI-malleja julkaistaan, niitä voidaan säännellä tällä lailla. Metan toimitusjohtaja Mark Zuckerburg on arvioinut, että Llama 4 vaatii noin 10 kertaa Llama 3.1:n laskentatehoa, mikä tarkoittaaLlama 4:n pitäisi olla yksi harvoista avoimen lähdekoodin malleista, jotka listataan sarjamalliksi tulevaisuudessa.
2. Mitkä ovat yritysten vastuut? Kehittäjien on suoritettava "vuosittaisia tarkastuksia", estettävä ennaltaehkäisevä väärinkäyttö ja varustettava heidät "tappikytkimillä"
Tämän lain asiaa koskevien säännösten mukaanSarjamallien kehittäjäPäävastuussa seuraavista tehtävistä:
1. Toteutushallinto, tekniikka ja fysiikkaKolmiosainen suojaus, joka estää kehittäjien hallitsemien soveltamisalaan kuuluvien mallien ja mallien johdannaisetLuvaton käyttö, väärinkäyttö tai koulutuksen jälkeinen muutos。
2、Saavuta kyky sammuttaa mallit kokonaan ajoissa.
3. Alkuperäisessä lakiehdotuksessa määrätään, että mallinkehittäjien on allekirjoitettava riippumaton turvallisuussopimus varmistaakseenMalleja ja johdannaisia, jotka voivat aiheuttaa vakavaa haittaa (kuten kyberhyökkäykset, jotka aiheuttavat yli 500 miljoonan Yhdysvaltain dollarin tappioita, aiheuttavat kuoleman tai vakavia henkilövahinkoja, jne.), ei kehitetä.Jos sopimuksessa on vääriä tietoja, rangaistaan väärästä valasta.
muutettu lakiesitysTämä heikentää suuresti tämän sopimuksen oikeudellista tehokkuutta. Tällä hetkellä mallinkehittäjien tarvitsee lähettää vain julkisia lausuntoja, joissa kuvataan turvallisuuskäytäntöjään.Tämä säännös ei kuitenkaan enää aseta rikosoikeudellista vastuuta, ja asiaankuuluvat tahot asetetaan syytteeseen vasta katastrofaalisen vahingon sattuessa.
4. Jos malli ja sen soveltamisalaan kuuluvat johdannaiset voivat aiheuttaa tai auttaa aiheuttamaan vakavaa vahinkoa, kehittäjä ei saa käyttää sitä kaupallisiin tai julkisiin tarkoituksiin yksinään eikä luovuttaa sitä muille kaupalliseen tai julkiseen käyttöön.
5. 1. tammikuuta 2028 alkaen mallien kehittäjien, jotka kuuluvat soveltamisalaan, tulisiPalkkaa yksi kolmannen osapuolen tilintarkastaja joka vuosi, suorittaa yksityiskohtaisen ja puolueettoman arvioinnin siitä, onko rakennuttaja noudattanut lain vaatimuksia, raportoida rikkomuksista ja ehdottaa tarkistusta.
6、Uudistettu lakiehdotus lisää suojauksia avoimen lähdekoodin mallin hienosäätöön.Lakiehdotuksessa määrätään nimenomaisesti, että jos kehittäjät käyttävät rahaa hienosäätämään soveltamisalaan kuuluvia mallejaAlle 10 miljoonaa dollaria, sitä ei tunnisteta hienosäädetyn mallin kehittäjäksi, ja vastuu on edelleen alkuperäisen mallin kehittäjällä.
Lisäksi tässä lakiehdotuksessa määrätään, että pilvipalvelut, kuten Amazon Cloud Services (AWS) ja Microsoft AzurePilvipalveluntarjoajien velvollisuudet. Tarjoaessaan asiakkaille riittävästi laskentatehoa mallien kouluttamiseen, pilvipalveluntarjoajien tulee olla valmiita:
1. Hanki asiakkaan perushenkilöllisyystiedot ja liiketoimintatarkoitukset, mukaan lukienAsiakkaan henkilöllisyys, IP-osoite, maksutapa ja lähdejne. Asiaankuuluvista vaatimustenmukaisuustoimista tulee jättää jälkiä, ja tiedot on säilytettävä 7 vuotta.
2. Arvioi, aikooko asiakas todella käyttää laskentatehoa scope-mallin kouluttamiseen.
3、Mahdollisuus sulkea käyttäjien käyttämät laskentaresurssit koulutuksen tai toimintamallien aikana.
Soveltamisalaan kuuluvien mallien kehittäjien ja pilvipalveluntarjoajien tulisi myös tarjotaLäpinäkyvä, yhtenäinen ja julkinen hinnastoja varmista, että hinnoittelu- ja käyttöoikeusprosessin aikanaEi syrjintää tai kilpailunvastaista toimintaa. muttaJulkiset yhteisöt, korkeakoulut ja ei-kaupalliset tutkijatVoit nauttia ilmaisista tai alennettuista käyttöoikeuksista. Jotkut pilvipalveluntarjoajat käyttävät hintaalennuksia houkutellakseen tai tukeakseen tiettyjä tekoälykehitysyrityksiä. Tämä toiminta saattaa tulla väistämättömäksi, kun laki tulee virallisesti voimaan.
Lakiehdotuksessa määrätään, että kun kehittäjät saavat tietää, että mallissa on tapahtunut tietoturvahäiriö,Asiaankuuluvista tapauksista tulee ilmoittaa valvontaviranomaisille 72 tunnin kuluessa. Lisäksi kehittäjien tulee myös varmistaa, että mallia tai sen johdannaisia käytetään kaupallisiin tai julkisiin tarkoituksiin.30 päivän sisällä, toimita tämän mallin vaatimustenmukaisuusvakuutus. Lisäksi ne, jotka ilmoittavat väärinkäytöksistä"Filmanpuhujia" suojellaan lailla, yritys tai organisaatio ei saa estää tai kostaa työntekijöitä, jotka paljastavat väärinkäytöksensä.
3. Kuinka rangaista laittomista teoista? 10 miljoonasta Yhdysvaltain dollarista alkavat sakot voivat johtaa mallin sulkemiseen tai poistamiseen
Jos mallinkehittäjät ja laskentaklusterioperaattorit eivät noudata yllä olevia säännöksiä ja aiheuttavat suurta vahinkoa, Kalifornian oikeusministerillä ja työvoimakomissiolla on valtuudet nostaa syytteeseen asiaankuuluvat tahot. Jos todetaan, että laitonta toimintaa on tapahtunut, tuomioistuin voi määrätä seuraavat rangaistukset:
1. Vuonna 2026 ja myöhemmin tapahtuneista rikkomuksista sakotetaan 10 %:n sisällä mallin keskimääräisistä kustannuksista pilvipalvelumarkkinoiden koulutusalueen sisällä ylittää 30 % näistä kustannuksista (perustuu 100 miljoonan dollarin kynnyksen laskelmaan, joka on määritelty soveltamisalan piiriin kuuluvien mallien laskussa,Ensimmäisestä rikkomuksesta määrätty sakko on vähintään 10 miljoonaa dollaria)。
2. Tuomioistuin voi myös julistaa kieltomääräyksen,Mukaan lukien, mutta niihin rajoittumatta, kaikkien soveltamisalaan kuuluvan mallin ja sen kehittäjien hallitsemien johdannaisten muokkaaminen, sulkeminen kokonaan tai poistaminen.
Rangaistus soveltamisalaan kuuluvien mallien muuttamisesta, sulkemisesta ja poistamisesta koskee kuitenkin vain, jos ne aiheuttavatMuiden kuolema, vakava henkilövahinko, omaisuusvahinko tai vakava uhka yleiselle turvallisuudellevoidaan käyttää vain silloin, kun.
4. Kuka vastustaa lakiesitystä? a16z ja YC ottivat johdon julkisuushyökkäyksen käynnistämisessä, Li Feifei ja Yang Likun twiittasivat kysymyksiä
Piilaakson teknologiajätit, lukuisat startupit ja sijoituslaitokset ovat ilmaisseet vahvan epäilynsä ja tyytymättömyytensä Kalifornian tekoälyn turvallisuuslakiin.Yksi äänekkäimmistä äänistä on Piilaaksossa tunnettu pääomasijoitusyhtiö a16z.a16z:llä on rikas sijoitussalkku tekoälyn alalla, mukaan lukien kypsät johtavat tekoälyyritykset, kuten OpenAI ja Mistral AI, sekä nousevat tähdet, kuten Stanfordin yliopiston professorin Li Feifein äskettäin perustama World Labs. Näillä yrityksillä on suuremmat mittakaavat ja rahoitussummat,Heidän kehittämänsä ja hienosäädettävät mallit voidaan saattaa sääntelyn piiriin.
▲ Jotkut a16z:n vastalauseista (Lähde: stopsb1047.com)
a16z teki aloitteen maksaakseen verkkosivuston rakentamisesta ja tarjotakseen vierailijoille mallin vastalausekirjeitä varten, jotka voidaan lähettää suoraan yksinkertaisesti muokkaamalla verkkosivustoa. a16z listasi tällä verkkosivustolla myös "6 syntiä" Kalifornian tekoälyn turvallisuuslain mukaan:
1. Tällä lailla on jäähdyttävä vaikutus tekoälyinvestointeihin ja -kehitykseen Kaliforniassa.
2. Lakiesitys rankaisee kehittäjiä/kehittäjiä epäselvien tulosten perusteella. Asiaankuuluvia testejä ei vielä ole olemassa.
3. Lakiehdotuksen epämääräiset määritelmät ja tiukat juridiset vastuut ovat tuoneet valtavia epävarmuutta ja taloudellisia riskejä tekoälykehittäjille ja yritysten omistajille.
4. Tämä lakiesitys saattaa pakottaa tekoälytutkimuksen maan alle ja heikentää vahingossa tekoälyjärjestelmien turvallisuutta.
5. Tämä lakiesitys aiheuttaa järjestelmällisen haitan avoimen lähdekoodin kehittäjille ja startup-kehittäjille, jotka ovat innovaatioiden ja pienyritysten ytimessä Kaliforniassa.
6. Tämä lakiesitys estää tekoälytutkimusta ja -innovaatioita Yhdysvalloissa ja tarjoaa Kiinan kaltaisille maille mahdollisuuksia ohittaa Yhdysvallat tekoälyssä.
Monien a16z-sijoittaneiden yritysten perustajat ilmaisivat myös vastustavansa Kalifornian tekoälyn turvallisuuslakia. Li Feifei julkaisi artikkelin Fortune-lehden verkkosivustolla, jossa hän selittää yksityiskohtaisesti vastustuksensa syyt uskoen, että tässä lakiehdotuksessa on neljä pääongelmaa:
1. Kehittäjien liiallinen rankaiseminen voi tukahduttaa innovaatiot.
2. "Kill switch" rajoittaa avoimen lähdekoodin kehitystyötä ja tuhoaa avoimen lähdekoodin yhteisön.
3. Heikentää tekoälytutkimusta korkeakouluissa ja julkisella sektorilla ja saattaa myös estää tutkijoita saamasta lisärahoitusta.
4. Siinä ei käsitellä tekoälyn edistymisen aiheuttamia mahdollisia haittoja, kuten ennakkoluuloja tai syvällisiä väärennöksiä.
▲Li Feifei vastustaa Kalifornian tekoälyn turvallisuuslakia (Lähde: X Platform)
Monet kommentointialueen nettimiehet eivät kuitenkaan ostaneet tätä lausuntoa. He kehottivat Li Feifeitä paljastamaan kiinnostuksen kohteensa a16z:n kanssa.
▲ Jotkut nettimiehet kyseenalaistivat Li Feifein puolueettomuuden (Lähde: X Platform)
Yhdysvaltojen tunnetuimpana ja vaikutusvaltaisimpana hautomona YC on monien tekoälyn startup-yritysten kehto.Heidän nykyinen päätoimipaikkansa on Kaliforniassa.Vuoden 2024 YC:n talvierän 260 startupista yli puolet liittyy tekoälyyn. YC uskoo myös, että tällä laskulla voi olla negatiivinen vaikutus teollisuuteen ja kehittäjien ekosysteemiin:
1、Lakiehdotuksen pitäisi rangaista työkalujen väärinkäyttäjiä, ei kehittäjiä.Kehittäjien on usein vaikea ennustaa mallien mahdollisia sovelluksia, ja kehittäjät voivat joutua vankilaan väärän valan rikoksen vuoksi.
2. Sääntelyn kynnysarvot eivät pysty ottamaan täysin huomioon teknologisen kehityksen dynamiikkaa. Ei-kalifornialaiset yritykset voivat kehittää tekoälyteknologiaa vapaammin, mikä voi vaikuttaa innovaatioihin Kaliforniassa.
3. "Kill Switch (viitataan kehittäjien mahdollisuuteen sammuttaa malleja)" saattaa estää avoimen lähdekoodin tekoälyn kehittämisen ja estää avoimen lähdekoodin yhteistyön ja läpinäkyvyyden.
4. Esityksen ilmaisu on suhteellisen epämääräinen.Tuomari tulkitsee sen todennäköisesti mielellään.。
YC:n lausunto sai yhteistä tukea sadoista startupeista. YC järjesti myös useita tekoälyn sääntelyyn liittyviä konferensseja Kaliforniassa, jolloin molemmat osapuolet kommunikoivat.
Yann LeCun, Metan johtava tutkija ja vuoden 2018 Turing-palkinnon voittaja, vastusti myös tätä lakiesitystäYhteisvastuulausekkeet.Hän on huolissaan siitä, että avoimen lähdekoodin alustat voivat joutua vastuuseen, jos ne eivät pysty arvioimaan tarkasti soveltamisalaan kuuluvien mallien riskejä.
Nykypäivän tärkeimpänä toimijana avoimen lähdekoodin tekoälymallien alalla Meta Corporation kirjoitti vastustuskirjeessä, että tämä lakiehdotus pakottaa avoimen lähdekoodin kehittäjät kantamaan suuria juridisia riskejä, koska vaatimukset mallin turvallisuuden takaamiseksi ovat epärealistisia . He suosittelevat, että Kalifornian lainsäätäjät viittaavat muiden maiden ja alueiden asiaankuuluviin lakeihin.Kuten EU:n tekoälylain läpinäkyvyyttä ja "punaisen tiimin testausta" koskevat vaatimukset. Myös Microsoft, Google ja OpenAI kommentoivat laskua negatiivisesti.
Anthropic, AI-startup, jolla on ainutlaatuinen "B Corporation -rakenne", on yksi monista tätä lakiesitystä vastustavista äänistä. Toisin kuin muut yritykset, he eivät kuitenkaan yritä estää lain hyväksymistä, vaan osallistuvat lakiesityksen muuttamiseen , jolloin lainsäätäjä kirjoitti kirjeen, jossa kerrottiin yksityiskohtaisesti parannusehdotuksistaan. Kaiken kaikkiaan Anthropic uskoo siihenLakiehdotuksen pitäisi siirtyä "täytäntöönpanosta ennen vahinkoa" "tuloksiin perustuvaan pelotteeseen". He haluavat myös tiukempia määräyksiä, keskittyvän huippuluokan tekoälyturvallisuuteen ja välttävän päällekkäisiä liittovaltion vaatimuksia.
5. Kuka tukee lakiesitystä? Hinton Bengio kirjoittaa tukikirjeen, senaattori syyttää a16z:tä huhujen levittämisestä
Vaikka Kalifornian tekoälyn turvallisuuslaki oli kiistanalainen heti, kun sitä ehdotettiin, monet tutkijat ja alan sisäpiiriläiset tukevat tällaista sääntelyä. 7. elokuuta, juuri kun tämä lakiesitys kohtasi jälleen kerran kritiikkiä, Turing-palkinnon voittaja ja "AI-kummisetä"Jeffrey Hinton(Geoffrey Hinton), tunnettu tekoälytutkija, Turing-palkinnon voittajaJoshua Bengio(Yoshua Bengio), kyberavaruuslain asiantuntija, professori Harvard Law SchoolistaLawrence Lessig(Lawrence Lessig) ja suositun tekoälyoppikirjan "Artificial Intelligence: A Modern Approach" kirjoittaja ja professori Kalifornian yliopistossa BerkeleyssäStuart Russell(Stuart Russell) kirjoitti yhdessä Kalifornian lainsäätäjälle ilmaistakseen "vahvan tukensa" Kalifornian tekoälyn turvallisuuslakille.
▲Neljä tunnettua tutkijaa kirjoitti kirjeen, joka tukee Kalifornian tekoälyn turvallisuuslakia (Lähde: safesecureai)
Neljä tutkijaa sanoivat olevansa syvästi huolissaan tekoälyn riskeistä ja että Kalifornian tekoälyn turvallisuuslaki on vähimmäisvaatimus teknologian tehokkaalle säätelylle, he kirjoittivat:
Lakiehdotuksessa ei ole lisensointijärjestelmää, eikä yrityksiä vaadita hankkimaan lupaa valtion virastoilta ennen koulutusta tai mallien käyttöönottoa. Se perustuu yrityksen itsearviointiin riskeistä eikä aseta yrityksiä ankarasti vastuuseen edes katastrofin sattuessa.
Suhteessa kohtaamiimme riskeihin,Tämä on erittäin löyhä lainsäädäntö. Nykyiset tekoälyä koskevat lait eivät ole yhtä tiukkoja kuin voileipäkauppoja säätelevät lait, ja tämän perustavanlaatuisen toimenpiteen poistaminen olisihistoriallinen virhe——Vuotta myöhemmin, kun seuraavan sukupolven tehokkaampia tekoälyjärjestelmiä julkaistaan, tämä virhe tulee entistä ilmeisemmäksi.
He myös korostivat sitäOvatko nämä riskit perusteettomia tai todellisia,, kaikkien asianomaisten osapuolten on kannettava vastuu riskien vähentämisestä. "Nämä järjestelmät parhaiten tuntevana asiantuntijaryhmänä he uskovat, että nämä riskit ovat mahdollisia ja tarpeeksi merkittäviä, jotta meidän on puututtava niihin.Turvallisuustestaus ja tervettä järkeä koskevat varotoimet。
Neljä asiantuntijaa mainitsi myös Boeingin viimeaikaisen turvallisuusskandaalin. He uskovat, että lentokoneista, lääkkeistä ja muista monimutkaisista teknologioista on tullut erittäin turvallisia ja luotettavia, mikä on tulosta teollisuuden ja hallituksen yhteisistä ponnisteluista.Kun sääntelijät höllentävät sääntöjä ja sallivat itsesääntelynBoeingin kaltaisia ongelmia ilmenee, jotka ovat erittäin pelottavia yleisölle ja teollisuudelle.
Tätä tukikirjettä tukivat monet nettimiehet, mutta jotkut uskoivat, että Hinton ja Bengio eivät enää ole mukana etulinjassa.Siksi heillä ei ole sananvaltaa oleellisissa asioissa.
Myös useat OpenAI:n entiset työntekijät tukivat lakiesitystä, mukaan lukien Daniel Kokotajlo, joka luopui vapaaehtoisesti OpenAI-optioistaan vastineeksi oikeudesta arvostella yhtiötä vapaasti. Hän uskoo, että lakiehdotuksen kriitikoiden väitteet tekoälyn edistymisen pysähtymisestä eivät todennäköisesti tapahdu.
▲ Kokotayolon asiaankuuluvat huomautukset (Lähde: X Platform)
Simon Last, Notionin, tekoälyn tuottavuustyökalun yksisarvisen, perustaja, jonka arvo on kymmeniä miljardeja dollareita, onTeollisuusMuutama Kalifornian tekoälyn turvallisuuslain kannattaja. Hän kirjoitti artikkelin Los Angeles Timesiin, joka on yksi Kalifornian vaikutusvaltaisimmista paikallisista tiedotusvälineistä, tukeakseen lakia ja sanoi, että kun liittovaltion tason tekoälylakeja on vaikea panna täytäntöön,Teknologiakeskuksena Yhdysvalloissa ja jopa maailmassa Kalifornialla on tärkeitä velvollisuuksia. Hän uskoo, että mallien valvonta ei vain lisää niiden turvallisuutta, vaan helpottaa myös perusmalleihin perustuvia tuotteita rakentavia tekoälystartuppeja.Tämä vähentää pienten ja keskisuurten yritysten taakkaa。
Lisäksi hän uskoo myös, että on väärin korostaa, että "sääntelyn tulisi keskittyä tekoälyn haitalliseen käyttöön ja käyttäjien sopimattomaan käyttäytymiseen taustalla olevan teknologian sijaan". Koska edellinen on luokiteltu laittomaksi laissa kaikilla tasoilla, Kalifornian uusi lakiehdotus tarjoaa tarkoituksenAiemman asetuksen näkökohtia puuttuu: Estä mahdollinen haitta.
Sen jälkeen kun YC ja a16z käynnistivät julkisuuskampanjan, Kalifornian osavaltion senaattori Wei Shangao, Kalifornian tekoälyn turvallisuuslain johtava kirjoittaja, lähetti pitkän kirjeen vastauksena asiaan liittyviin valituksiin ja sanoi, että monet näiden kahden järjestön Kaliforniaa koskevista lausunnoista. AI Safety Act olivat epätarkkoja, ja jotkut Väitteet ovat "provokatiivisia tosiasioiden vääristymiä", kuten lakiehdotus lähettäisi kehittäjät, jotka eivät pysty arvioimaan tarkasti mallin riskejä, vankilaan tai kieltäisivät avoimen lähdekoodin julkaisut.
▲ Wei Shangaon vastaus YC:lle ja a16z:lle (Lähde: safesecureai)
Vuoden 2023 alussa Wei Shangao otti yhteyttä YC:hen, mutta sanoi, ettei hän ole vieläkään saanut YC:ltä yksityiskohtaista palautetta laskun parantamisesta. a16z osallistui myöhään lainsäädäntöprosessiin, eikä ole toistaiseksi ehdottanut merkittäviä muutoksia.
Tässä kirjeessä Wei Shangao vastasi useisiin lain vastustajien keskeisiin huolenaiheisiin:
1、Kehittäjät eivät joudu vankilaan, jos he eivät pysty ennustamaan mallin riskejä.Ensinnäkin aloittavien kehittäjien ja tutkijoiden ei tarvitse huolehtia, koska lasku ei koske heitä. Toiseksi lakiehdotuksen väärää valaa koskeva lauseke koskee vain kehittäjiä"tarkoituksella"Se tulee voimaan vain, jos annetaan väärä lausunto, ja tahattomat väärinarvioinnit mallin kyvyistä eivät laukaise väärää valaa koskevaa lauseketta (joka on poistettu tämän päivän tarkistuksista).
2、Lakiesitys ei luo täysin uusia vastuita.Nykyisen lain mukaan sekä mallinkehittäjät että yksittäiset kehittäjät voidaan haastaa oikeuteen, jos malli aiheuttaa vahinkoa, ja se koskee kaiken kykyisiä malleja ja kaikki loukkaantuneet voivat haastaa oikeuteen. Kalifornian uusi laki ei vainRajoittaa valvonnan laajuuttaja rajoittaa myös oikeutta nostaa kanneKalifornian oikeusministerijatyöneuvostomolemmissa kokonaisuuksissa.
3、Laki ei tukahduta Kalifornian innovaatioita.Tämä lakiehdotus koskee kaikkia Kaliforniassa liiketoimintaa harjoittavia yrityksiä, vaikka ne siirtävät pääkonttorinsa pois Kaliforniasta, niiden tulee noudattaa asiaankuuluvia säännöksiä (Zhixi Huomautus: Kalifornia on BKT:n perusteella maailman viidenneksi suurin talous, ja sillä on täydellinen teknologiaekosysteemi. Teknologia. Yrityksiä on vaikea irrottaa Kaliforniasta). Kun Kalifornia hyväksyi tietosuojalakeja ja ympäristönsuojelulakeja, monet ihmiset väittivät, että tämä estäisi innovaatioita, mutta tosiasia on, että Kalifornia on edelleen innovaation kärjessä.
4、Tappakytkimet ja turvallisuusarviointivaatimukset eivät estä avoimen lähdekoodin tekoälyn kehitystä.Lakiesitystä on nyt tarkistettu ja se on vahvistanut avoimen lähdekoodin tekoälyn suojaa. Laskun mallin hätäpysäytysvaatimus koskee vain kehittäjän hallinnassa olevia malleja, ei kuitenkaan ohjaamattomia avoimen lähdekoodin malleja. Lakiehdotuksella perustetaan myös uusi neuvoa-antava komitea puolustamaan ja tukemaan turvallisia ja luotettavia avoimen lähdekoodin tekoälykehitystoimia.
Wei Shangao tarjosi myös "laiskapaketin" ihmisille, jotka ovat huolissaan tästä lakiehdotuksesta. Se tiivisti 6 lakiehdotuksen pääkohtaa (katso alla oleva kuva).
▲Laskun pääkohdat (Lähde: safesecureai)
Johtopäätös: Kalifornia on ottanut tärkeän askeleen, ja laskun tulevaisuus on epäselvä
Vaikka monet alan sisäpiiriläiset vastustavat Kalifornian tekoälyn turvalakia, joidenkin mielipidekyselyorganisaatioiden tulokset osoittavat, että Kalifornian asukkaat suhtautuvat yleensä myönteisesti tähän lakiin.
Kun se virallisesti onnistuu, se voi kohdata haasteita tuomioistuimessa päättäväisiltä vastustajilta, kuten a16z. Tämä lykkäisi lakiesitystä, kunnes Yhdysvaltain korkein oikeus antaa päätöksen.
Äskettäin Yhdysvaltain korkein oikeus kumosi lähes 40 vuotta kestäneen "Chevron-doktriinin" ja tuki sääntelyvirastojen ääntä. Tämä periaate edellyttää, että tuomarit alistuvat valtion sääntelyviranomaisten tulkintaan säännöksistä, kun säännökset ovat epäselviä. Tämän periaatteen poistaminen heijastaa Yhdysvaltain nykyisen korkeimman oikeuden yleistä konservatiivista asennetta teknologian sääntelyyn.