2024-08-17
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
(Kuvan lähde: tekoälyn luoma kuva)
16. elokuuta Pekingin aikaa Kalifornian kiistanalainen Frontier AI Model Safety Innovation Act -laki (tunnetaan myöhemmin nimellä California AI Safety Act SB 1047) hyväksyi lopulta Kalifornian edustajainhuoneen määrärahojen komitean arvioinnin heikentyään merkittävästi asiaankuuluvia säännöksiä.
Kalifornian senaattori Wienerin tiimi kertoi TechCrunchille, että lakiin lisättiin useita AI-yhtiön Anthropicin ja muiden vastustajien ehdottamia muutoksia, ja se hyväksyi lopulta Kalifornian määrärahakomitean, mikä otettiin tärkeällä askeleella kohti lakia, joka sisälsi useita keskeisiä muutoksia.
"Hyväksyimme ehdotetun joukon erittäin järkeviä muutoksia, ja uskon, että olemme käsitelleet Anthropicin ja monien muiden alan toimijoiden ilmaisemia keskeisiä huolenaiheita", senaattori Wiener sanoi lausunnossaan. "Nämä muutokset perustuvat aiempiin merkittäviin muutoksiin SB 1047:ään vastatakseen avoimen lähdekoodin yhteisön ainutlaatuisiin tarpeisiin, mikä on tärkeä innovaation lähde."
SB 1047 pyrkii edelleen estämään kyberturvallisuushäiriöitä, joissa suuret tekoälyjärjestelmät tappavat suuren määrän ihmisiä tai aiheuttavat yli 500 miljoonan dollarin tappioita saattamalla kehittäjät vastuuseen. Laki antaa nyt kuitenkin Kalifornian hallitukselle vähemmän valtaa pitää tekoälylaboratorioita vastuullisena. Kansallisen tason sääntelyvaikeuksien dilemmassa tästä on tullut tärkeä askel tekoälyn sääntelyssä Yhdysvalloissa.
Jotkut tekoälyteollisuuden ihmiset, kuten Li Feifei ja Yang Likun, uskovat kuitenkin, että tämä vahingoittaa lopulta Kaliforniaa ja jopa Yhdysvaltojen johtavaa asemaa tekoälyalalla. Sadat yrittäjät allekirjoittivat yrityshautomon YC:n kirjoittaman vastustuskirjeen, ja yli 100 Kalifornian akateemikkoa vastusti lakia. Riskipääomalaitos a16z perusti verkkosivuston yksityiskohtaisesti esitelläkseen lakiehdotuksen kuusi syntiä. Tällä hetkellä monista tekoälylakeista keskustellaan kaikkialla Yhdysvalloissa, mutta Californian Frontier Artificial Intelligence Model Safety Innovation Act -lain on tullut yksi kiistanalaisimmista.
Kotimaisille yrityksille lakiehdotus edellyttää pilvipalveluntarjoajien keräävän asiakastietoja, IP-osoitteita, maksutapoja ja muita tietoja, mikä helpottaa valvontaviranomaisten jäljitettävyystyötä. Jos myöhempiä valvontatoimia tiukennetaan entisestään, tästä voi muodostua sääntelyriski, joka kohdistuu joihinkin kiinalaisiin tekoälyyrityksiin, jotka käyttävät ulkomaista laskentatehoa koulutukseen.
Joten nyt, kun Kalifornian tekoälylaki on hyväksytty, mikä vaikutus sillä on tekoälyteollisuuteen Kiinassa ja Yhdysvalloissa? Titanium MediaAGILajittele kuusi kysymystä ja vastausta selittääksesi tätä lakiesitystä ja joitakin sen taustalla olevia tietoja.
Kalifornian tekoälylaki SB 1047 pyrkii estämään suuria tekoälymalleja käyttämästä "vakavaa vahinkoa" ihmisille.
Lakiehdotuksessa luetellaan esimerkkejä "vakavasta vahingosta". Esimerkiksi huonot näyttelijät käyttivät tekoälymalleja valtavia uhreja aiheuttavien aseiden rakentamiseen tai käskivät tekoälymalleja järjestämään kyberhyökkäyksiä, jotka aiheuttivat yli 500 miljoonan dollarin vahinkoa (verrattunaCrowdStrike Häiriön arvioitiin maksaneen yli 5 miljardia dollaria). Laki vaatii kehittäjiä (eli malleja kehittäviä yrityksiä) ottamaan käyttöön riittävät suojausprotokollat tällaisten seurausten estämiseksi.
SB 1047:n säännöt koskevat vain maailman suurimpia tekoälymalleja: mallit, jotka maksavat vähintään 100 miljoonaa dollaria ja käyttävät 10^26 FLOPSia harjoituksen aikana – se on valtava määrä laskentaa, mutta OpenAI Toimitusjohtaja Sam Altman sanoi, että GPT-4:n kouluttaminen maksaisi noin paljon. Näitä kynnysarvoja voidaan nostaa tarpeen mukaan.
Tällä hetkellä harvat yritykset ovat kehittäneet julkisia tekoälytuotteita, jotka täyttävät nämä vaatimukset, mutta teknologiajätit, kuten OpenAI, Google ja Microsoft, voivat pian tehdä niin. Tekoälymallit – pohjimmiltaan suuret tilastokoneet, jotka tunnistavat ja ennustavat datan kuvioita – yleensä tarkentuvat skaalautuessaan, ja monet odottavat tämän trendin jatkuvan. Mark Zuckerberg sanoi äskettäin, että seuraavan sukupolven Meta's Llama vaatii 10 kertaa enemmän laskentatehoa, mikä tekisi sen SB 1047:n alaisena.
Merkittävin on se, että laki ei enää salli Kalifornian oikeusministerin haastaa tekoälytiedusteluyrityksiä oikeuteen huolimattomista turvatoimista ennen katastrofitapahtumaa. Tätä Anthropic ehdottaa.
Sen sijaan Kalifornian oikeusministeri voi hakea kieltomääräystä ja vaatia yritystä lopettamaan vaaralliseksi katsomansa toiminnan, ja voi silti haastaa tekoälykehittäjät oikeuteen, jos tekoälymalli aiheuttaa katastrofaalisen tapahtuman.
Kalifornian uusi tekoälylaki on ilmoittanut, että Frontier Model Department (FMD) -virastoa ei enää ole. Lakiehdotuksessa kuitenkin perustetaan edelleen Frontier Model Commission – suu- ja sorkkataudin ydin – ja asetetaan se olemassa oleviin valtion toimintavirastoihin. Itse asiassa komitea on nyt suurempi, ja siinä on yhdeksän henkilöä viiden sijaan. Frontier Models Council asettaa edelleen laskennalliset kynnykset katetuille malleille, antaa turvallisuusohjeita ja määräyksiä tilintarkastajille.
Suurin muutos tarkistettuun lakiin on se, että Kalifornian oikeusministeri ei enää saa haastaa tekoälyyrityksiä oikeuteen turvallisuusasioiden laiminlyönnistä ennen kuin katastrofi tapahtuu. Alkuperäisessä lakiehdotuksessa määrätään, että niin kauan kuin tilintarkastajat havaitsevat, että tekoälyyrityksillä on laitonta toimintaa päivittäisessä toiminnassa, yritykset voidaan asettaa syytteeseen. Tämä merkitsee lakiesityksen sääntelypainotuksen siirtymistä todellisiin haittoihin ja vähentää myös yrityksiin kohdistuvaa noudattamispainetta.
Lopuksi lakiehdotus tarjoaa myös ilmiantajien suojan malliyrityksen työntekijöille, jos he yrittävät paljastaa tietoja vaarallisista tekoälymalleista Kalifornian oikeusministerille.
Useimmat yhdysvaltalaiset teknologiayritykset ja tekoälyn startupit toimivat Kaliforniassa ja joutuvat laskun piiriin. Tämä lakiehdotus keskittyy erityisesti "huippuluokan tekoälymalleihin". Tulevaisuudessa Llama 4 ja GPT-5 voivat olla sen tärkeimmät sääntelykohteet.
Lakiesitys osoittaa, että mallikehitysyritysten teknologiapäälliköiden on toimitettava FMD:lle vuosittain sertifioinnit, joissa arvioidaan heidän tekoälymalliensa mahdolliset riskit, tietoturvaprotokollien tehokkuus ja kuvaus siitä, kuinka yritys noudattaa SB 1047 -standardia. Samoin kuin rikkomusilmoitukset, jos "AI-tietoturvahäiriö" tapahtuu, kehittäjien on ilmoitettava siitä FMD:lle 72 tunnin kuluessa tapauksesta.
SB 1047 sallii Kalifornian oikeusministerin nostaa siviilioikeudellisia kanteita kehittäjiä vastaan, jos he eivät noudata jotakin näistä määräyksistä. Mallille, jonka kouluttaminen maksoi 100 miljoonaa dollaria, sakko voi olla jopa 10 miljoonaa dollaria ensimmäisestä rikkomuksesta ja jopa 30 miljoonaa dollaria myöhemmistä rikkomuksista. Tekoälymallien kallistuessa sakkojen määrä nousee.
Kun rikkomuksia tapahtuu, yritykset voivat saada sakkoja 10 miljoonasta 30 miljoonaan dollariin, ja tämä määrä kasvaa mallikoulutuksen kustannusten noustessa.
Lisäksi, jos mallinkehittäjät ja laskentaklusterioperaattorit eivät noudata yllä olevia määräyksiä ja aiheuttavat suurta vahinkoa ja jos todetaan, että laitonta toimintaa on todella tapahtunut, tuomioistuin voi määrätä seuraavat rangaistukset:
1. Vuonna 2026 ja myöhemmin laittomista teoista ensimmäistä kertaa lakia rikkovia tahoja rangaistaanpilvilaskentaaSakko on 10 prosentin sisällä mallin keskimääräisistä kustannuksista markkinakoulutuksen puitteissa. Myöhemmissä rikkomuksissa sakon määrä ei saa ylittää 30 prosenttia näistä kustannuksista (laskettu mallille määritetyn 100 miljoonan dollarin kynnyksen perusteella). laskussa sakko ensimmäisestä rikkomuksesta on vähintään 10 miljoonaa dollaria).
2. Tuomioistuin voi myös julistaa kieltomääräyksen, mukaan lukien, mutta ei rajoittuen, muuttaa, sulkea kokonaan tai poistaa kaikki mallin piirissä olevat johdannaiset ja sen kehittäjät.
Soveltamisalaan kuuluvan mallin muuttamisesta, sulkemisesta ja poistamisesta määrättyjä seuraamuksia voidaan kuitenkin käyttää vain, jos se aiheuttaa toisen henkilön kuoleman, vakavan henkilövamman, omaisuusvahingon tai vakavan uhan yleiselle turvallisuudelle.
Laki hyväksyi Kalifornian lainsäätäjän suhteellisen helposti, vaikka Yhdysvaltain lainsäätäjät, merkittävät tekoälytutkijat, suuret teknologiayritykset ja pääomasijoittajat vastustivat sitä. Muutokset voisivat lohduttaa SB 1047:n vastustajia ja tarjota kuvernööri Newsomille vähemmän kiistanalaisen lain, jonka hän voi allekirjoittaa laiksi menettämättä tekoälyteollisuuden tukea.
Nykyään yhä useammat teknologia-ihmiset vastustavat Kalifornian tekoälyä.
Anthropic kertoi tarkistavansa SB 1047:ään tehtyjä muutoksia ennen päätöksentekoa. Senaattori Wiener ei hyväksynyt kaikkia yhtiön aikaisempia tarkistusehdotuksia.
Tunnettu pääomasijoitusyhtiö a16z listasi virallisella verkkosivustollaan "6 syntiä" Kalifornian tekoälyn turvallisuuslain mukaan:
Tällä lailla on jäähdyttävä vaikutus tekoälyinvestointeihin ja -kehitykseen Kaliforniassa.
Lakiesitys rankaisee kehittäjiä/kehittäjiä epäselvien tulosten perusteella. Asiaankuuluvia testejä ei vielä ole olemassa.
Lakiehdotuksen epämääräiset määritelmät yhdistettynä ankaraan oikeudelliseen vastuuseen luovat merkittävää epävarmuutta ja taloudellista riskiä tekoälykehittäjille ja yritysten omistajille.
Laki saattaa pakottaa tekoälytutkimuksen maan alle ja tehdä tekoälyjärjestelmistä vahingossa vähemmän turvallisia.
Tämä lakiesitys aiheuttaa järjestelmällisen haitan avoimen lähdekoodin kehittäjille ja startup-kehittäjille, jotka ovat innovaatioiden ja pienyritysten ytimessä Kaliforniassa.
Tämä lakiesitys estää tekoälytutkimusta ja -innovaatioita Yhdysvalloissa ja tarjoaa Kiinan kaltaisille maille mahdollisuuksia ohittaa Yhdysvallat tekoälyssä.
Andreessen Horowitz, a16z:n perustajaosakas, uskoo, että vaikka Kalifornian tekoälylaki on hyvää tarkoittava, se voi heikentää Yhdysvaltain teknologiateollisuutta väärän tiedon vuoksi juuri silloin, kun teknologian tulevaisuus on kriittisessä tienhaarassa. Yhdysvallat tarvitsee johtajia tunnustamaan, että nyt on kriittinen hetki älykkäälle ja yhtenäiselle tekoälyn sääntelylle.
Stanfordin yliopiston professori Li Feifei julkaisi artikkelin Fortune-lehden verkkosivuilla, jossa hän uskoo, että tämän lakiehdotuksen tärkeimmät ongelmat ovat neljä kohtaa: se rankaisee liikaa kehittäjiä ja voi tukahduttaa "tappauksen" tahdon rajoittaa avoimen lähdekoodin kehitystyötä, mikä heikentää tekoälyn tutkimusta korkeakouluissa ja julkisella sektorilla, mikä mahdollisesti estää tutkijoita saamasta lisärahoitusta, eikä puutu tekoälyn kehityksen aiheuttamiin mahdollisiin haittoihin.
Lisäksi sadat YC-hautomon tukemat startupit uskovat yhdessä, että tällä lailla voi olla neljä negatiivista vaikutusta toimialaan ja kehittäjien ekosysteemiin:
Lakiehdotuksen pitäisi rangaista työkalujen väärinkäyttäjiä, ei kehittäjiä. Kehittäjien on usein vaikea ennustaa mallien mahdollisia sovelluksia, ja kehittäjät voivat joutua vankilaan väärän valan rikoksen vuoksi.
Sääntelykynnykset eivät pysty kuvaamaan riittävästi teknologian kehityksen dynamiikkaa. Ei-kalifornialaiset yritykset voivat kehittää tekoälyteknologiaa vapaammin, mikä voi vaikuttaa innovaatioihin Kaliforniassa.
"Kill Switch" (viittaa kehittäjien mahdollisuuteen sammuttaa malleja) saattaa estää avoimen lähdekoodin tekoälyn kehittämisen ja estää avoimen lähdekoodin yhteistyön ja läpinäkyvyyden.
Esityksen kieli on epämääräinen, ja tuomarit voivat tulkita sitä mielivaltaisesti.
Metan johtava tutkija ja vuoden 2018 Turing-palkinnon voittaja Yann LeCun vastusti myös tätä lakiesitystä. Hän oli huolissaan siitä, että jos mallin riskejä ei ole arvioitu tarkasti, sen yhteisvastuulausekkeet ovat osoittaneet, että avoimen lähdekoodin alustan on ehkä kannettava vastuuta.
Stanfordin yliopiston tietojenkäsittelytieteen ja sähkötekniikan laitoksen vieraileva professori Andrew Ng kirjoitti, että Kalifornian SB-1047-laki tukahduttaa avoimen lähdekoodin suurten mallien kehittämisen. Lakiehdotuksen pitäisi säännellä tekoälysovelluksia eikä itse suuria malleja.
Hän on edelleen järkyttynyt valtavasta haitasta, jonka Kalifornian ehdotettu SB 1047 -lasku aiheutti avoimen lähdekoodin suurille malleille. Tämä lakiehdotus tekee vakavan ja perustavanlaatuisen virheen Se, mitä pitäisi säännellä, ovat generatiiviset tekoälytuotteet, jotka on kehitetty suurten mallien avulla, eikä itse avoimen lähdekoodin suuria malleja.
Ng uskoo myös, että SB 1047 vaatii kehittäjiä suojelemaan avoimen lähdekoodin suuria malleja väärinkäytöltä, muokkauksilta ja laittomien johdannaisten tekoälytuotteiden kehitykseltä. Kuitenkin, kuinka kehittäjien tulisi suojata ja määritellä nämä käyttäytymiset, on edelleen hyvin epämääräistä, eikä yksityiskohtaista sääntelyä ole.
Siksi Andrew Ng kehottaa kaikkia boikotoimaan SB 1047 -lakia. Hän uskoo, että jos se hyväksytään, sillä on tuhoisa isku avoimen lähdekoodin suurten mallien innovaatioille, ja myös Kalifornia menettää motivaation tekoälyinnovaatioon.
Oppositioon verrattuna tällä hetkellä jotkut teknologia-ammattilaiset tukevat Kalifornian tekoälylakia.
Heidän joukossaan, vaikka Kalifornian kuvernööri Newsom ei ole julkisesti kommentoinut SB 1047:ää, hän on aiemmin ilmaissut sitoutumisensa tekoälyinnovaatioihin Kaliforniassa.
Samaan aikaan Turing-palkinnon voittaja ja "AI-kummisetä" Geoffrey Hinton, Turing-palkinnon voittaja Yoshua Bengio, Harvard Law Schoolin professori Lawrence Lessig) ja Stuart Russell, suositun tekoäly-oppikirjan "Artificial Intelligence: A Modern Approach" kirjoittaja ja professori. Kalifornian yliopistossa Berkeleyssä kirjoittivat yhdessä Kalifornian lainsäätäjälle tukensa Kalifornian tekoälyn turvalakille.
Neljä tutkijaa totesivat olevansa syvästi huolissaan tekoälyn riskeistä ja että Kalifornian tekoälyn turvallisuuslaki on vähimmäisvaatimus teknologian tehokkaalle säätelylle. "Lakiehdotuksessa ei ole lisensointijärjestelmää, eikä se vaadi yrityksiä hankkimaan lupaa valtion virastoilta ennen koulutusta tai mallien käyttöönottoa. Se perustuu yritysten itsearviointiin riskeistä eikä aseta yrityksiä ankaraan vastuuseen edes katastrofin sattuessa. Suhteellinen siihen mitä kohtaamme Riskinä on, että tämä on erittäin löysä lainsäädäntö. Nykyiset tekoälyä koskevat lait eivät ole yhtä tiukkoja kuin voileipäkauppoja. Olisi historiallinen virhe peruuttaa lakiehdotuksen perustoimenpiteet , kun seuraava sukupolvi on tiukempi Tämä virhe tulee ilmeisemmäksi, kun tehokkaat tekoälyjärjestelmät julkaistaan."
"Neljäkymmentä vuotta sitten, kun harjoittelin ChatGPT Kun oli kyse työkalujen takana olevien tekoälyalgoritmien ensimmäisistä versioista, kukaan, mukaan lukien minä, ei olisi voinut ennustaa tekoälyn edistyvän näin paljon. Tehokkailla tekoälyjärjestelmillä on uskomattomia lupauksia, mutta riskit ovat myös hyvin todellisia, ja ne tulee ottaa erittäin vakavasti. SB 1047:ssä on erittäin älykäs lähestymistapa näiden huolenaiheiden tasapainottamiseen. Suhtaudun edelleen intohimoisesti tekoälyn mahdollisuuksiin pelastaa ihmishenkiä parantamalla tiedettä ja lääketiedettä, mutta meidän on kehitettävä todella vahva lainsäädäntö riskien torjumiseksi. Kalifornia on tämän tekniikan lähtökohta, koska siellä se lähti liikkeelle. Hinton sanoi.
Neljä tutkijaa korostivat kirjeessä myös, että riippumatta siitä, ovatko nämä riskit perusteettomia vai todellisia, asianosaisten on kannettava vastuu riskien vähentämisestä. "Nämä järjestelmät parhaiten tuntevana asiantuntijaryhmänä he uskovat, että nämä riskit ovat mahdollisia ja niin merkittäviä, että turvatestaukset ja terveen järjen varotoimet ovat tarpeen.
Kalifornian senaattori Scott Wiener, lakiesityksen laatija, sanoi, että SB 1047 pyrkii oppimaan aiemmista sosiaalisen median ja tietosuojakäytäntöjen epäonnistumisista ja pitämään kansalaiset turvassa ennen kuin on liian myöhäistä.
"Asenteemme teknologiaa kohtaan on odottaa vahingon tapahtuvan ja sitten tehdä asialle mitään", Wiener sanoi. "Emme odota, että jotain pahaa tapahtuu. Haluamme toimia ennen kuin se tapahtuu."
Kehittäjät eivät joudu vankilaan, jos he eivät pysty ennustamaan mallin riskejä. Ensinnäkin aloittavien kehittäjien ja tutkijoiden ei tarvitse huolehtia, koska lasku ei koske heitä. Toiseksi, lakiesityksen väärä valaa koskeva lauseke tulee voimaan vain, kun kehittäjä "tietoisesti" antaa väärän lausunnon, eikä tahaton väärinarviointi mallin ominaisuuksista laukaise väärää valaa koskevaa lauseketta (tämä lauseke on poistettu tämän päivän tarkistuksesta).
Lakiesitys ei luo täysin uusia vastuita. Nykyisen lain mukaan sekä mallinkehittäjät että yksittäiset kehittäjät voidaan haastaa oikeuteen, jos malli aiheuttaa vahinkoa, ja se koskee kaiken kykyisiä malleja ja kaikki loukkaantuneet voivat haastaa oikeuteen. Kalifornian uusi lakiehdotus ei ainoastaan rajoita sääntelyn soveltamisalaa, vaan myös rajoittaa oikeuden nostaa kanne kahdelle taholle, Kalifornian oikeusministerille ja työlautakunnalle.
Laki ei tukahduta Kalifornian innovaatioita. Tämä lakiehdotus koskee kaikkia Kaliforniassa liiketoimintaa harjoittavia yrityksiä, vaikka ne siirtävät pääkonttorinsa pois Kaliforniasta, niiden tulee noudattaa asiaankuuluvia säännöksiä (Zhixi Huomautus: Kalifornia on BKT:n perusteella maailman viidenneksi suurin talous, ja sillä on täydellinen teknologiaekosysteemi. Teknologia. Yrityksiä on vaikea irrottaa Kaliforniasta). Kun Kalifornia hyväksyi tietosuojalakeja ja ympäristönsuojelulakeja, monet ihmiset väittivät, että tämä estäisi innovaatioita, mutta tosiasia on, että Kalifornia on edelleen innovaation kärjessä.
Tappakytkimet ja turvallisuusarviointivaatimukset eivät estä avoimen lähdekoodin tekoälyn kehitystä. Lakiesitystä on nyt tarkistettu ja se on vahvistanut avoimen lähdekoodin tekoälyn suojaa. Laskun mallin hätäpysäytysvaatimus koskee vain kehittäjän hallinnassa olevia malleja, ei kuitenkaan ohjaamattomia avoimen lähdekoodin malleja. Lakiehdotuksella perustetaan myös uusi neuvoa-antava komitea puolustamaan ja tukemaan turvallisia ja luotettavia avoimen lähdekoodin tekoälykehitystoimia.
Lain mukaan vaikka yritys kouluttaisi 100 miljoonan dollarin mallin Teksasissa tai Ranskassa, se olisi suojattu SB 1047:llä niin kauan kuin se harjoittaa liiketoimintaa Kaliforniassa. Wiener sanoi, että kongressi "ei ole tuottanut melkein mitään teknologiaa koskevaa lainsäädäntöä viimeisten 25 vuoden aikana", joten hänen mielestään Kalifornian pitäisi luoda ennakkotapaus tässä.
Tekoälyn turvallisuuden keskuksen johtaja Dan Hendrycks sanoi: "Tämä lakiesitys on Kalifornian ja Yhdysvaltojen teollisuuden pitkän aikavälin edun mukainen, koska suuret turvallisuushäiriöt voivat olla suurin este kehitykselle."
Myös useat OpenAI:n entiset työntekijät tukivat lakiesitystä, mukaan lukien Daniel Kokotajlo, joka luopui vapaaehtoisesti OpenAI-optioistaan vastineeksi oikeudesta arvostella yhtiötä vapaasti. Hän uskoo, että lakiehdotuksen kriitikoiden väitteet tekoälyn edistymisen pysähtymisestä eivät todennäköisesti tapahdu.
Simon Last, Notionin, kymmenien miljardien dollarien arvoisen tekoälyyksisarvisen, perustaja kirjoitti artikkelin, jossa hän ilmoitti kannattavansa lakiesitystä ja uskoo, että kun liittovaltion tekoälylakeja on vaikea panna täytäntöön, Kalifornia toimii teknologiakeskuksena Yhdysvalloissa. ja jopa maailmalla on tärkeitä velvollisuuksia. Hän uskoo, että mallien valvonta ei ainoastaan lisää niiden turvallisuutta, vaan helpottaa myös perusmalleille tuotteita rakentavia tekoälystartuppeja, mikä vähentää pienten ja keskisuurten yritysten taakkaa.
"SB 1047:n tavoitteena on - ja on aina ollut - parantaa tekoälyn turvallisuutta samalla, kun koko ekosysteemi voi innovoida", sanoi Nathan Calvin, Center for AI Safety Action Fundin neuvonantaja. "Uudet muutokset tukevat sitä tavoite".
SB 1047 menee nyt Kalifornian yleiskokoukseen lopullista äänestystä varten. Jos lakiesitys menee läpi yleiskokouksessa, sen on palautettava Kalifornian senaatti äänestämään viimeisimpien muutosten vuoksi. Jos lakiehdotus hyväksytään samaan aikaan, se lähetetään Kalifornian kuvernöörin Gavin Newsomin työpöydälle, joka tekee lopullisen päätöksen lakiesityksen allekirjoittamisesta elokuun loppuun mennessä.
Wiener sanoi, että hän ei ole puhunut Newsomille laskusta eikä tiedä, missä hän on.