Le mie informazioni di contatto
Posta[email protected]
2024-08-16
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
cose intelligenti
Autore Chen Junda
Modifica Panken
Zhidongxi ha riferito il 16 agosto che proprio ora è stato annunciato il controverso “Frontier AI Model Safety Innovation Act” della California (in seguito noto come California AI Safety Act).notevolmente indebolitoSuccessivamente, ha superato con successo la revisione del Comitato per gli stanziamenti della Camera dei Rappresentanti della California.Regolare le difficoltà giuridiche a livello nazionaleIn mezzo al dilemma, questo è diventato un passo importante per gli Stati Uniti nella regolamentazione dell’intelligenza artificiale. Tuttavia, alcune persone nella comunità tecnologica lo credonoAlla fine danneggerà la California e persino la posizione di leader degli Stati Uniti nel campo dell’intelligenza artificiale.
Il più grande aggiustamento nel disegno di legge modificato è questonon è più consentitoIl procuratore generale della California ha citato in giudizio le società di intelligenza artificiale per aver ignorato le questioni di sicurezza prima che si verificasse un evento catastrofico. Il disegno di legge originale prevede che finché i revisori dei conti scoprono che le società di intelligenza artificiale svolgono attività illegali nelle operazioni quotidiane, le società potrebbero essere perseguite. Questo segna il contoL’attenzione normativa si sposta sui danni reali, lo farà ancheRidurre la pressione sulla compliance sulle imprese.
La maggior parte delle aziende tecnologiche e delle startup di intelligenza artificiale statunitensi operano in California.sarà soggetto alla legge.Nello specifico, questo disegno di legge si concentra principalmente su "Modelli IA all'avanguardia"Solo gli sviluppatori i cui costi di potenza di calcolo per i modelli di addestramento superano i 100 milioni di dollari dovranno affrontare i requisiti normativi. I modelli esistenti non rientrano nell'ambito della supervisione. In futuroLlama 4 e GPT-5 potrebbero essere i suoi principali obiettivi normativi.
Per le imprese nazionali, se si effettuano solo perfezionamenti e altre operazioni sulla base dell'open source, è molto probabile che queste non rientrino nell'ambito della vigilanza. Tuttavia, il disegno di legge impone ai fornitori di servizi cloud di raccogliere informazioni sui clienti, indirizzi IP, metodi di pagamento e altre informazioni, il che facilita il lavoro di tracciabilità delle autorità di regolamentazione. Se i controlli verranno ulteriormente rafforzati, ciò potrebbe accadereRischi normativi affrontati da alcune società cinesi di intelligenza artificiale che utilizzano la potenza di calcolo estera per la formazione.
Le imprese nell'ambito della vigilanza dovrebberoadottare misure proattivePer evitare l'abuso del modello, devi anche averemodello di arresto di emergenzacapacità. Inoltre, sono tenuti a presentare una dichiarazione pubblica in cui delineano le loro pratiche di sicurezza. Il disegno di legge introduce"Ispezione annuale", gli sviluppatori sono tenuti ad assumere revisori indipendenti per valutare annualmente la conformità.
Una volta che si verificano attività illegali, le aziende potrebbero dover affrontareche vanno da 10 milioni di dollari a 30 milioni di dollariQuesto importo aumenterà con l'aumentare del costo della formazione del modello.
Il circolo dell’IA si è diviso in due fazioni e vi è stato un acceso dibattito.
Vincitore del Premio Turing 2018Jeffrey Hinton(Geoffrey Hinton) eGiosuè Bengio(Yoshua Bengio) ha espresso il suo sostegno e ritiene che il California AI Safety Act sia una regolamentazione efficace della tecnologia AI.Requisiti minimi”。
Hanno firmato centinaia di imprenditoriIncubatrice YCAnche più di 100 accademici in California hanno scritto lettere di opposizione.Istituzione di capitale di rischio a16zCreare un sito web appositamente per dettagliare i sei crimini della legge, professore della Stanford UniversityLi FeifeiTwittato appositamente per condannare, il punto principale è che questo disegno di legge ostacolerà gli investimenti e lo sviluppo dell'intelligenza artificiale in California,Danneggiare in modo significativo l’ecosistema open source, non affronta i rischi sostanziali derivanti dall'IA.
Tuttavia, il senatore dello stato della California Scott Wiener, autore del disegno di legge sulla regolamentazione dell'intelligenza artificiale della California, ha confutato alcune critiche al disegno di legge, affermando che a16z e YCdistorcere deliberatamente i fatti, questo disegno di legge rappresenta un'ottimizzazione all'interno del quadro giuridico esistente, migliora la pertinenza della supervisione, non metterà in prigione un gran numero di sviluppatori e non danneggerà l'innovazione e l'intelligenza artificiale open source.
Zhixixi ha raccolto una grande quantità di informazioni e ha riassunto il contenuto specifico e le relative discussioni di questo disegno di legge nelle seguenti cinque domande e risposte:
1. Qual è l'ambito di applicazione? La maggior parte dei modelli esistenti non sono applicabili e Llama 4 e GPT-5 potrebbero essere inclusi nell’ambito della supervisione
Al fine di ottenere una supervisione efficace, questo disegno di legge originariamente prevedeva la creazione di un "Dipartimento modello di frontiera (FMD)" per attuare le normative pertinenti. Con le revisioni odierne, questa divisione si trasforma in una commissione di nove membri all’interno dell’agenzia governativa della California, che comprende rappresentanti dell’industria dell’intelligenza artificiale, della comunità open source e del mondo accademico, ed è nominata dal governatore e dalla legislatura della California. Il Frontier Models Council continuerà a fissare le soglie computazionali per i modelli coperti, a emanare linee guida sulla sicurezza e a emanare regolamenti per i revisori.
Essendo uno dei centri di sviluppo dell’intelligenza artificiale negli Stati Uniti e persino nel mondo, la California ha attratto un gran numero di aziende di intelligenza artificiale. Oltre 30 delle 50 principali aziende di intelligenza artificiale secondo la rivista Forbes nel 2024 operano in California. Secondo questo disegno di legge, tutti devono rispettare le disposizioni pertinenti del California AI Safety Act. Tuttavia, l’effettivo ambito di applicazione di questa legge sarà notevolmente limitato dalle capacità del modello.Forse nei prossimi anni solo i principali attori nel vasto campo dei modelli saranno regolati da questo disegno di legge.
▲Screenshot di parte della legge sulla regolamentazione dell'intelligenza artificiale della California (Fonte: sito web ufficiale del Senato della California)
Questo disegno di legge valuterà se un modello debba essere incluso nell'ambito normativo in base alla potenza di calcolo e al costo della potenza di calcolo utilizzati nella formazione del modello, ovvero essere classificato come "Modello copertoLa normativa in materia può essere riassunta nei seguenti due punti:
1. Utilizzare prima del 1 gennaio 202710^26e più operazioni su numeri interi o in virgola mobile (100 milioni di dollari in base al prezzo medio di mercato della potenza di calcolo) o utilizzo3*10^25Il modello ottenuto dopo aver messo a punto il modello in-range con la potenza di calcolo verrà elencato come modello in-range.
2. Dopo il 1° gennaio 2027, gli standard di cui sopra saranno implementati dalla CaliforniaRegolatore modello all'avanguardiaFai una valutazione. Se il dipartimento modifica la soglia della potenza di calcolo, prevarrà il nuovo standard; se il dipartimento decide che non è necessaria alcuna modifica, si continuerà ad utilizzare lo standard originale. Inoltre, dopo il 2026, i 100 milioni di dollari previsti dallo standard originale dovrebbero essere rispettatiAggiustarsi di conseguenza per tenere conto dell’inflazione.
Quindi quali dei modelli rilasciati ora saranno inclusi in questa gamma? Esistono molti modi per calcolare la potenza di calcolo utilizzata nell'addestramento del modello OpenAI una volta stimata approssimativamente in un documento:
FLOPS=6ND
(dove N è il numero di parametri e D è il numero di token)
Utilizzando questo metodo di calcolo e i dati del modello open source, possiamo stimare approssimativamente il livello di potenza di calcolo attualmente utilizzato dai modelli:
Lama 3 70B
Ha 70 miliardi di parametri e utilizza i dati di addestramento dei token 15T durante l'addestramento, quindi la potenza di calcolo utilizzata è all'incirca:
6*70B*15T= 6,3*10^24 FLOPS
Lama 3.1 405B
Ha 405 miliardi di parametri e utilizza dati di addestramento di token da 15,6 T durante l'addestramento, quindi la potenza di calcolo utilizzata è approssimativamente:
6*405B*15.6T=3.79*10^25 FLOPS
▲ Informazioni relative al lama 3.1 405B (Fonte: Hugging Face)
Questo metodo di calcolo è relativamente approssimativo e può differire notevolmente dalla situazione reale, ma ha comunque un significato di riferimento. Secondo questo risultato,Llama 3.1 405B, il re dei modelli open source, non sarà attualmente elencato come modello nell'ambito del disegno di legge., un modello verrà elencato come modello compreso nella gamma solo se utilizza 2,6 volte la potenza di calcolo di Llama 3.1 405B.
Questi dati possono essere supportati anche dalla dichiarazione rilasciata in una lettera aperta in risposta alla controversia sul disegno di legge dal senatore dello stato della California William Wilson, l'autore di questo disegno di legge. Ha scritto nella lettera: “Nel modello attualmente pubblicato pubblicamente,.Nessun modello ha raggiunto la soglia di potenza di calcolo di 10^26 FLOP”。
Per molto tempo in futuro, la stragrande maggioranza delle società di sviluppo di modelli di piccole e medie dimensioni e degli sviluppatori indipendenti potrebbe non doversi preoccupare della supervisione di questo disegno di legge. Secondo la soglia di potenza di calcolo e la soglia di capitale del disegno di legge, i suoi principali oggetti normativi sono i seguentiOpenAI, Meta, GoogleTali attori importanti nel campo dell'intelligenza artificiale eStartup leader che hanno ricevuto grandi quantità di investimenti.
Secondo la dichiarazione pubblica del CEO di OpenAI, Sam Altman, il costo di formazione di GPT-4 è di circa 100 milioni di dollari. Non è chiaro se questo costo includa investimenti diversi dalla potenza di calcolo. Se GPT-5 o altri modelli OpenAI successivi verranno rilasciati, potrebbero essere regolati da questo atto. Il CEO di Meta Mark Zuckerburg ha stimato che Llama 4 richiederà circa 10 volte la potenza di calcolo di Llama 3.1, il che significaLlama 4 dovrebbe essere uno dei pochi modelli open source che in futuro verrà elencato come modello di gamma.
2. Quali sono le responsabilità delle imprese? Gli sviluppatori devono condurre "ispezioni annuali", prevenire in modo proattivo gli abusi e dotarli di "kill switch"
Secondo le disposizioni pertinenti di questa legge,Sviluppatore di modelli di gammaPrincipalmente responsabile delle seguenti responsabilità:
1. Attuazionegestione, tecnologia e fisicaProtezione di sicurezza su tre fronti per prevenire modelli interni e derivati di modelli interni controllati dagli sviluppatoriAccesso non autorizzato, uso improprio o modifica post-allenamento。
2、Ottenere la capacità di arrestare completamente i modelli in modo tempestivo.
3. Il disegno di legge originale prevede che gli sviluppatori di modelli debbano firmare un accordo di sicurezza indipendente per garantireNon verranno sviluppati modelli e derivati che comportano il rischio di causare danni gravi (ad esempio attacchi informatici che provocano perdite superiori a 500 milioni di dollari USA, morte o gravi lesioni personali, ecc.).Se nel contratto sono contenute informazioni false, queste saranno punite sotto pena di spergiuro.
disegno di legge modificatoCiò indebolisce notevolmente l’efficacia giuridica di questo accordo. Attualmente, gli sviluppatori di modelli devono solo presentare dichiarazioni pubbliche che descrivono le loro pratiche di sicurezza.Tuttavia, questa disposizione non impone più alcuna responsabilità penale e gli enti interessati saranno perseguiti solo dopo che si sia verificato un danno catastrofico.
4. Se il modello e i suoi derivati nell'ambito di applicazione possono causare o contribuire a causare gravi lesioni, lo sviluppatore non lo utilizzerà per scopi commerciali o pubblici da solo, né potrà fornirlo ad altri per uso commerciale o pubblico.
5. A partire dal 1° gennaio 2028 gli sviluppatori di modelli rientranti nell'ambito di applicazione dovrebberoAssumi 1 revisore esterno ogni anno, per condurre una valutazione dettagliata e obiettiva della conformità dello sviluppatore ai requisiti della legge, riferire sulle violazioni e suggerimenti per la revisione.
6、Il disegno di legge rivisto aggiunge protezioni per la messa a punto del modello open source.Il disegno di legge stabilisce esplicitamente che se gli sviluppatori spendono soldi per mettere a punto i modelli in ambitoMeno di 10 milioni di dollari, non verrà riconosciuto come sviluppatore del modello perfezionato e la responsabilità resterà a carico dello sviluppatore del modello originale.
Inoltre, questo disegno di legge prevede che i servizi cloud come Amazon Cloud Services (AWS) e Microsoft AzureObblighi dei fornitori di servizi cloud. Quando forniscono ai clienti una potenza di calcolo sufficiente per addestrare i modelli nell'ambito, i fornitori di servizi cloud dovrebbero essere preparati a:
1. Ottenere le informazioni sull'identità di base del cliente e gli scopi commerciali, inclusiIdentità del cliente, indirizzo IP, metodo di pagamento e fonteecc. Le operazioni di conformità rilevanti dovrebbero lasciare tracce e le registrazioni dovrebbero essere conservate per 7 anni.
2. Valutare se il cliente intende effettivamente utilizzare la potenza di calcolo per addestrare il modello nell'ambito.
3、La possibilità di arrestare le risorse informatiche utilizzate dagli utenti durante l'addestramento o il funzionamento dei modelli.
Dovrebbero fornire anche gli sviluppatori e i fornitori di servizi cloud di modelli rientranti nell'ambito di applicazioneListino trasparente, unificato e pubblicoe garantirlo durante il processo di determinazione dei prezzi e di accessoNessuna discriminazione o comportamento anticoncorrenziale. MaEnti pubblici, istituzioni accademiche e ricercatori non commercialiPuoi usufruire dei diritti di utilizzo gratuiti o scontati. Alcuni fornitori di servizi cloud utilizzeranno sconti sui prezzi per attrarre o supportare specifiche società di sviluppo dell’intelligenza artificiale. Questo comportamento potrebbe non essere evasivo dopo l’entrata in vigore ufficiale del disegno di legge.
Il disegno di legge stabilisce che quando gli sviluppatori apprendono che si è verificato un incidente di sicurezza in un modello,Gli incidenti rilevanti devono essere segnalati alle autorità di regolamentazione entro 72 ore. Inoltre, gli sviluppatori dovrebbero anche garantire che un modello o i suoi derivati siano utilizzati per scopi commerciali o pubblici.Entro 30 giorni, presentare una dichiarazione di conformità per questo modello. Inoltre, coloro che segnalano comportamenti scorrettiGli "informatori" saranno protetti dalla legge, una società o un'organizzazione non può impedire o attuare ritorsioni contro i dipendenti che denunciano una condotta scorretta.
3. Come punire gli atti illegali? Multe a partire da 10 milioni di dollari possono portare alla chiusura o all'eliminazione del modello
Se gli sviluppatori di modelli e gli operatori di cluster informatici non rispettano le normative di cui sopra e causano gravi danni, il Procuratore Generale e la Commissione del Lavoro della California avranno il potere di perseguire le entità rilevanti. Se viene accertato che si è verificato un comportamento illecito, il tribunale può imporre le seguenti sanzioni:
1. Per le violazioni dal 2026 in poi, le entità che violano la legge per la prima volta saranno multate fino al 10% del costo medio del modello nell'ambito della formazione del mercato del cloud computing. Per le violazioni successive, l'importo della multa non verrà applicato superare il 30% di questo costo (sulla base del calcolo della soglia di 100 milioni di dollari definita nella fattura per i modelli rientranti,La multa per la prima violazione è di almeno 10 milioni di dollari)。
2. Il giudice può pronunciare un'ingiunzione ancheIncluso ma non limitato alla modifica, chiusura completa o eliminazione di tutti i derivati controllati dal modello compreso nell'ambito e dai suoi sviluppatori.
Tuttavia, la sanzione per la modifica, la chiusura e l'eliminazione dei modelli che rientrano nell'ambito di applicazione si applica solo se causanoMorte di altre persone, lesioni personali gravi, danni materiali o grave minaccia alla sicurezza pubblicapuò essere utilizzato solo quando.
4. Chi si oppone al disegno di legge? a16z e YC hanno preso l'iniziativa di lanciare un'offensiva pubblicitaria, Li Feifei e Yang Likun hanno twittato domande
I giganti della tecnologia della Silicon Valley, un gran numero di startup e istituti di investimento hanno espresso forti dubbi e insoddisfazione nei confronti della legge sulla sicurezza dell’intelligenza artificiale della California.Una delle voci più forti è a16z, una nota società di venture capital della Silicon Valley.a16z ha un ricco portafoglio di investimenti nel campo dell’intelligenza artificiale, comprese società leader nel campo dell’intelligenza artificiale come OpenAI e Mistral AI, nonché stelle nascenti come World Labs recentemente fondato dal professore dell’Università di Stanford Li Feifei. Queste società hanno dimensioni e importi di finanziamento più grandi,I modelli che sviluppano e mettono a punto possono essere sottoposti a competenza normativa.
▲Alcune obiezioni di a16z (Fonte: opensb1047.com)
a16z ha preso l'iniziativa di pagare per costruire un sito web e fornire ai visitatori un modello per le lettere di opposizione, che possono essere inviate direttamente semplicemente modificandole sul sito web. a16z ha anche elencato su questo sito i “6 peccati” a suo avviso rispetto al California AI Safety Act:
1. Questo disegno di legge avrà un effetto dissuasivo sugli investimenti e sullo sviluppo dell’intelligenza artificiale in California.
2. Il disegno di legge penalizza gli sviluppatori/sviluppatori sulla base di risultati poco chiari. Non esistono ancora test rilevanti.
3. Le definizioni vaghe del disegno di legge e le rigide responsabilità legali hanno comportato enormi incertezze e rischi economici per gli sviluppatori di intelligenza artificiale e gli imprenditori.
4. Questo disegno di legge potrebbe costringere la ricerca sull’intelligenza artificiale a nascondersi e ridurre inavvertitamente la sicurezza dei sistemi di intelligenza artificiale.
5. Questo disegno di legge crea uno svantaggio sistemico per gli sviluppatori open source e startup, che sono al centro dell’innovazione e delle piccole imprese in California.
6. Questo disegno di legge inibisce la ricerca e l’innovazione sull’intelligenza artificiale negli Stati Uniti e offre opportunità a paesi come la Cina di superare gli Stati Uniti nell’intelligenza artificiale.
Anche i fondatori di molte aziende partecipate da a16z hanno espresso la loro opposizione al California AI Safety Act. Li Feifei ha pubblicato un articolo sul sito della rivista Fortune spiegando dettagliatamente le ragioni della sua opposizione, ritenendo che ci siano quattro problemi principali con questo disegno di legge:
1. Punire eccessivamente gli sviluppatori può soffocare l’innovazione.
2. Il "kill switch" limiterà il lavoro di sviluppo open source e distruggerà la comunità open source.
3. Indebolire la ricerca sull’intelligenza artificiale nel mondo accademico e nel settore pubblico e potrebbe anche impedire agli accademici di ricevere maggiori finanziamenti.
4. Non affronta il potenziale danno causato dal progresso dell’IA, come pregiudizi o deepfake.
▲Li Feifei si oppone alla legge sulla sicurezza dell'intelligenza artificiale della California (Fonte: X Platform)
Tuttavia, molti netizen nell'area commenti non hanno creduto a questa affermazione. Hanno invitato Li Feifei a rivelare il suo rapporto di interesse con a16z.
▲Alcuni netizen hanno messo in dubbio la neutralità di Li Feifei (Fonte: X Platform)
Essendo l’incubatore più noto e influente negli Stati Uniti, YC è la culla di molte startup di intelligenza artificiale.La loro attuale sede operativa principale è in California.Delle 260 startup del lotto invernale YC 2024, più della metà sono legate all’intelligenza artificiale. YC ritiene inoltre che questo disegno di legge potrebbe avere un impatto negativo sul settore e sull'ecosistema degli sviluppatori:
1、Il disegno di legge dovrebbe punire chi abusa degli strumenti, non gli sviluppatori.Spesso è difficile per gli sviluppatori prevedere le possibili applicazioni dei modelli e gli sviluppatori potrebbero finire in prigione per falsa testimonianza.
2. Le soglie normative non possono cogliere appieno le dinamiche dello sviluppo tecnologico. Le aziende non californiane potranno sviluppare la tecnologia AI più liberamente, il che potrebbe influire sull’innovazione in California.
3. Il “Kill Switch (riferito alla capacità degli sviluppatori di disattivare i modelli)” può vietare lo sviluppo dell’intelligenza artificiale open source e inibire la collaborazione e la trasparenza open source.
4. Il testo del disegno di legge è relativamente vago.È probabile che venga interpretato a piacimento dal giudice.。
La dichiarazione di YC ha ricevuto il sostegno congiunto di centinaia di startup. YC ha anche tenuto una serie di conferenze relative alla regolamentazione dell’IA in California, consentendo ad entrambe le parti di comunicare.
Anche Yann LeCun, capo scienziato di Meta e vincitore del Premio Turing 2018, si è opposto a questo disegno di leggeClausole di responsabilità congiunta e solidale.Teme che le piattaforme open source possano essere ritenute responsabili se non riescono a valutare accuratamente i rischi dei modelli in questione.
In quanto attore più importante oggi nel campo dei modelli di intelligenza artificiale open source, Meta Corporation ha scritto in una lettera di opposizione che questo disegno di legge costringe gli sviluppatori open source a sopportare grandi rischi legali quando sono open source, perché i requisiti per garantire la sicurezza dei modelli non sono realistici . Raccomandano che i legislatori della California facciano riferimento alle leggi pertinenti in altri paesi e regioni.Come i requisiti di trasparenza e di “test della squadra rossa” nella legge UE sull’intelligenza artificiale. Anche Microsoft, Google e OpenAI hanno commentato negativamente la proposta di legge.
Anthropic, una startup di intelligenza artificiale con una struttura unica di "B Corporation", è una delle tante voci contrarie a questo disegno di legge. Tuttavia, a differenza di altre società, non cercano di impedire l'approvazione del disegno di legge, ma partecipano alla modifica del disegno di legge , dando a The Legislature una lettera in cui dettaglia i loro suggerimenti per miglioramenti. Nel complesso, Anthropic ne è convintaIl disegno di legge dovrebbe passare da “applicazione prima del danno” a “deterrenza basata sui risultati”. Vogliono inoltre che le normative siano più rigorose, si concentrino sulla sicurezza dell’intelligenza artificiale all’avanguardia ed evitino la duplicazione dei requisiti federali.
5. Chi sostiene il disegno di legge? Hinton Bengio scrive lettera di sostegno, il senatore accusa a16z di diffondere voci
Sebbene il disegno di legge sulla sicurezza dell’intelligenza artificiale della California sia stato oggetto di controversie non appena è stato proposto, molti studiosi e addetti ai lavori del settore sostengono tale regolamentazione. Il 7 agosto, proprio mentre questo disegno di legge stava affrontando ancora una volta un'ondata di critiche, il vincitore del Premio Turing e "Padrino dell'intelligenza artificiale"Jeffrey Hinton(Geoffrey Hinton), noto studioso di intelligenza artificiale, vincitore del Premio TuringGiosuè Bengio(Yoshua Bengio), esperto di diritto del cyberspazio, professore alla Harvard Law SchoolLorenzo Lessig(Lawrence Lessig) e autore del popolare libro di testo sull'intelligenza artificiale "Artificial Intelligence: A Modern Approach" e professore all'Università della California, BerkeleyStuart Russell(Stuart Russell) hanno scritto congiuntamente alla legislatura della California per esprimere il loro "forte sostegno" al California AI Safety Act.
▲Quattro noti studiosi hanno scritto una lettera a sostegno del California AI Safety Act (Fonte: safesecureai)
I quattro accademici hanno affermato di essere profondamente preoccupati per i rischi dell’intelligenza artificiale e che l’AI Safety Act della California è il requisito minimo per regolamentare efficacemente la tecnologia, hanno scritto:
Il disegno di legge non prevede un sistema di licenze e non richiede alle aziende di ottenere il permesso dalle agenzie governative prima di formare o implementare modelli. Si basa sull'autovalutazione del rischio da parte dell'azienda e non ritiene le aziende strettamente responsabili anche in caso di disastro.
Rispetto ai rischi che affrontiamo,Si tratta di una legislazione molto flessibile. Le attuali leggi che regolano l’intelligenza artificiale non sono così stringenti come quelle che regolano le paninerie, e rimuovere questa misura fondamentale sarebbe unerrore storico——Un anno dopo, quando verrà rilasciata la prossima generazione di sistemi di intelligenza artificiale più potenti, questo errore diventerà ancora più evidente.
Lo hanno sottolineato anche loroSe questi rischi siano infondati o reali,, tutte le parti interessate devono assumersi la responsabilità di mitigare i rischi. "Essendo il gruppo di esperti che conosce meglio questi sistemi", ritengono che questi rischi siano possibili e sufficientemente significativi da dover essere affrontati.Test di sicurezza e precauzioni di buon senso。
Quattro esperti hanno anche citato il recente scandalo sulla sicurezza della Boeing. Credono che gli aerei, la medicina e altre tecnologie complesse siano diventate molto sicure e affidabili, il che è il risultato degli sforzi congiunti dell'industria e del governo.Quando i regolatori allentano le regole e consentono l’autoregolamentazione, sorgono problemi come Boeing, che sono estremamente spaventosi per il pubblico e l'industria.
Questa lettera di sostegno è stata sostenuta da molti netizen, ma alcune persone credono che Hinton e Bengio non siano più coinvolti nel lavoro in prima linea.Pertanto, non hanno voce in capitolo sulle questioni rilevanti.
Anche diversi ex dipendenti di OpenAI hanno sostenuto il disegno di legge, tra cui Daniel Kokotajlo, che ha rinunciato volontariamente alle sue opzioni OpenAI in cambio del diritto di criticare liberamente l'azienda. Egli ritiene che le affermazioni dei critici del disegno di legge secondo cui i progressi dell’intelligenza artificiale si fermeranno probabilmente non si realizzeranno.
▲Osservazioni rilevanti di Kokotayolo (Fonte: X Platform)
Lo è Simon Last, il fondatore di Notion, uno strumento di produttività basato sull’intelligenza artificiale valutato decine di miliardi di dollariIndustriaAlcuni sostenitori del disegno di legge sulla sicurezza dell’intelligenza artificiale della California. Ha scritto un articolo sul Los Angeles Times, uno dei media locali più influenti della California, a sostegno del disegno di legge, affermando che quando le leggi sull’intelligenza artificiale a livello federale sono difficili da attuare,In quanto centro tecnologico negli Stati Uniti e anche nel mondo, la California ha importanti responsabilità. Ritiene che la supervisione dei modelli non solo migliori la loro sicurezza, ma faciliti anche le startup di intelligenza artificiale che costruiscono prodotti basati su modelli di base.Ciò ridurrà l’onere per le piccole e medie imprese。
Inoltre, ritiene anche che sia sbagliato sottolineare che "la regolamentazione dovrebbe concentrarsi sugli usi dannosi dell'intelligenza artificiale e sul comportamento inappropriato degli utenti, piuttosto che sulla tecnologia sottostante". Poiché il primo è stato classificato come illegale nelle leggi a tutti i livelli, il nuovo disegno di legge della California fornisce lo scopoAspetti mancanti della precedente normativa: Previene potenziali danni.
Dopo che YC e a16z hanno lanciato una campagna pubblicitaria, il senatore dello stato della California Wei Shangao, l'autore principale del California AI Safety Act, ha rilasciato una lunga lettera in risposta alle denunce in questione, affermando che molte delle dichiarazioni fatte da queste due organizzazioni sulla California AI Safety Act L'AI Safety Act era impreciso e alcune affermazioni sono "provocatorie distorsioni dei fatti", come il fatto che il disegno di legge manderebbe in prigione gli sviluppatori che non riescono a stimare accuratamente i rischi del modello o vieterebbe i rilasci open source.
▲ La risposta di Wei Shangao a YC e a16z (Fonte: safesecureai)
All'inizio del 2023, Wei Shangao ha iniziato a contattare YC, ma ha affermato di non aver ancora ricevuto feedback dettagliati da YC su come migliorare il conto. a16z ha partecipato tardi al processo legislativo e finora non ha proposto alcuna modifica sostanziale.
In questa lettera, Wei Shangao ha risposto a diverse preoccupazioni fondamentali degli oppositori del disegno di legge:
1、Gli sviluppatori non andranno in prigione per non aver previsto i rischi del modello.In primo luogo, gli sviluppatori e gli accademici in fase di avvio non devono preoccuparsi poiché il disegno di legge non si applica a loro. In secondo luogo, la clausola sullo spergiuro nel disegno di legge si applica solo agli sviluppatori"deliberatamente"Ha effetto solo se viene fatta una dichiarazione falsa e valutazioni errate involontarie sulle capacità di un modello non attiveranno la clausola di spergiuro (che è stata rimossa dagli emendamenti di oggi).
2、Il disegno di legge non crea responsabilità completamente nuove.Secondo la legge esistente, sia gli sviluppatori di modelli che i singoli sviluppatori possono essere citati in giudizio se un modello causa danni, e si applica a modelli di tutte le abilità e tutti gli individui danneggiati possono fare causa. La nuova legge della California non soloLimita la portata della supervisione, e limita anche il diritto di agire in giudizioProcuratore generale della CaliforniaEconsiglio del lavorosu entrambi gli enti.
3、Il disegno di legge non soffocherà l’innovazione della California.Questo disegno di legge si applica a tutte le aziende che operano in California, anche se trasferiscono la propria sede fuori dalla California, devono rispettare le normative pertinenti (Nota Zhixi: la California è la quinta economia mondiale in base al PIL e dispone di un ecosistema tecnologico completo. Tecnologia. aziende È difficile separarsi dalla California). Quando la California approvò le leggi sulla privacy dei dati e sulla protezione ambientale, molte persone sostenevano che ciò avrebbe ostacolato l’innovazione, ma il fatto è che la California è ancora leader nell’innovazione.
4、I kill switch e i requisiti di valutazione della sicurezza non ostacoleranno lo sviluppo dell’intelligenza artificiale open source.Il disegno di legge è stato ora rivisto e rafforzato la protezione dell’IA open source. Il requisito per l'arresto di emergenza del modello nella fattura si applica solo ai modelli sotto il controllo dello sviluppatore, esclusi i modelli open source non controllati. Il disegno di legge istituisce inoltre un nuovo comitato consultivo per sostenere e sostenere gli sforzi di sviluppo di un’intelligenza artificiale open source sicura e affidabile.
Wei Shangao ha anche fornito un "pacchetto pigro" per le persone preoccupate per questo disegno di legge, riassumendone 6 punti chiave (vedi immagine sotto).
▲I punti chiave del disegno di legge (Fonte: safesecureai)
Conclusione: la California ha compiuto un passo importante e il futuro della legge non è chiaro
Sebbene il disegno di legge sulla sicurezza dell’intelligenza artificiale della California sia osteggiato da un gran numero di addetti ai lavori, i risultati di alcune organizzazioni di sondaggi mostrano che i residenti della California hanno generalmente un atteggiamento positivo nei confronti di questo disegno di legge.
Quando avrà ufficialmente successo, potrebbe dover affrontare sfide in tribunale da parte di avversari determinati come a16z. Ciò bloccherebbe il disegno di legge fino a quando la Corte Suprema degli Stati Uniti non si pronuncerà.
Recentemente, la Corte Suprema degli Stati Uniti ha ribaltato la “dottrina Chevron” che durava da quasi 40 anni e ha sostenuto la voce delle agenzie di regolamentazione. Questo principio impone ai giudici di rimettersi all’interpretazione delle disposizioni legali da parte dei regolatori governativi quando le disposizioni legali non sono chiare. L’abolizione di questo principio riflette l’atteggiamento complessivamente conservatore dell’attuale Corte Suprema degli Stati Uniti nei confronti della regolamentazione tecnologica.