Le mie informazioni di contatto
Posta[email protected]
2024-08-17
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
(Fonte immagine: immagine generata dall'intelligenza artificiale)
Il 16 agosto, ora di Pechino, il controverso Frontier AI Model Safety Innovation Act della California (in seguito noto come California AI Safety Act SB 1047) ha finalmente superato la revisione del Comitato per gli stanziamenti della Camera dei rappresentanti della California dopo aver indebolito in modo significativo le disposizioni pertinenti.
Il team del senatore della California Wiener ha detto a TechCrunch che il disegno di legge ha aggiunto diversi emendamenti proposti dalla società di intelligenza artificiale Anthropic e altri oppositori, e alla fine è passato al Comitato per gli stanziamenti della California, facendo un passo importante verso la diventare legge, che includeva diversi emendamenti chiave.
"Abbiamo accettato la serie di emendamenti molto ragionevoli proposti e credo che abbiamo affrontato le principali preoccupazioni espresse da Anthropic e molti altri operatori del settore", ha affermato il senatore Wiener in una nota. "Questi emendamenti si basano sulle mie precedenti modifiche significative all'SB 1047 per soddisfare le esigenze specifiche della comunità open source, che rappresenta un'importante fonte di innovazione."
L’SB 1047 mira ancora a prevenire incidenti di sicurezza informatica in cui sistemi di intelligenza artificiale su larga scala uccidono un gran numero di persone o causano perdite superiori a 500 milioni di dollari, ritenendo gli sviluppatori responsabili. Tuttavia, il disegno di legge ora conferisce al governo della California meno potere di ritenere responsabili i laboratori di intelligenza artificiale. Nel dilemma delle difficoltà normative a livello nazionale, questo è diventato un passo importante nella regolamentazione dell’IA negli Stati Uniti.
Tuttavia, alcune persone nel settore dell’intelligenza artificiale come Li Feifei e Yang Likun credono che ciò alla fine danneggerà la posizione leader della California e persino degli Stati Uniti nel campo dell’intelligenza artificiale. Centinaia di imprenditori hanno firmato una lettera di opposizione scritta dall'incubatore YC, e anche più di 100 accademici in California hanno pubblicato una lettera contro il disegno di legge. L'istituto di venture capital a16z ha creato un sito web appositamente per dettagliare i sei peccati del disegno di legge. Attualmente, negli Stati Uniti si stanno discutendo molti progetti di legge sull’intelligenza artificiale, ma il Frontier Artificial Intelligence Model Safety Innovation Act della California è diventato uno dei più controversi.
Per le imprese nazionali, il disegno di legge impone ai fornitori di servizi cloud di raccogliere informazioni sui clienti, indirizzi IP, metodi di pagamento e altre informazioni, il che facilita il lavoro di tracciabilità delle autorità di regolamentazione. Se i controlli successivi verranno ulteriormente rafforzati, ciò potrebbe diventare un rischio normativo affrontato da alcune società cinesi di intelligenza artificiale che utilizzano la potenza di calcolo all’estero per la formazione.
Quindi, ora che la legge sull’intelligenza artificiale della California è stata approvata, quale impatto avrà sulle industrie cinesi e americane dell’intelligenza artificiale? Supporti in titanioAGIOrdina sei domande e risposte per spiegare questo disegno di legge e alcune delle informazioni dietro di esso.
Il disegno di legge sull’intelligenza artificiale della California, SB 1047, mira a impedire che modelli di intelligenza artificiale di grandi dimensioni vengano utilizzati per causare “danni gravi” agli esseri umani.
Il disegno di legge elenca esempi di "danni gravi". Ad esempio, i malintenzionati hanno utilizzato modelli di intelligenza artificiale per costruire armi che hanno causato enormi perdite, o hanno incaricato modelli di intelligenza artificiale di orchestrare attacchi informatici che hanno causato danni per oltre 500 milioni di dollari (rispetto a quelliSciopero della folla Si stima che l'interruzione sia costata più di 5 miliardi di dollari). Il disegno di legge richiede agli sviluppatori (ovvero alle aziende che sviluppano modelli) di implementare protocolli di sicurezza adeguati per prevenire tali conseguenze.
Le regole di SB 1047 si applicano solo ai modelli di intelligenza artificiale più grandi del mondo: modelli che costano almeno 100 milioni di dollari e utilizzano 10 ^ 26 FLOPS durante l'addestramento: si tratta di un'enorme quantità di calcolo, ma IA aperta Il CEO Sam Altman ha affermato che l’addestramento di GPT-4 costerebbe altrettanto. Queste soglie possono essere aumentate secondo necessità.
Attualmente, poche aziende hanno sviluppato prodotti pubblici di intelligenza artificiale sufficientemente grandi da soddisfare questi requisiti, ma i giganti della tecnologia come OpenAI, Google e Microsoft potrebbero presto farlo. I modelli di intelligenza artificiale, essenzialmente motori statistici di grandi dimensioni che identificano e prevedono modelli nei dati, generalmente diventano più accurati man mano che crescono e molti si aspettano che questa tendenza continui. Mark Zuckerberg ha recentemente affermato che la prossima generazione di Meta's Llama richiederà una potenza di calcolo 10 volte maggiore, il che la renderebbe soggetta alla norma SB 1047.
In particolare, il disegno di legge non consente più al procuratore generale della California di citare in giudizio le società di intelligence basate sull’intelligenza artificiale per negligenza nelle misure di sicurezza prima che si verifichi un evento catastrofico. Questo è ciò che suggerisce Anthropic.
Invece, il procuratore generale della California può chiedere un provvedimento ingiuntivo, richiedendo a una società di interrompere un’operazione che ritiene pericolosa, e potrebbe comunque citare in giudizio gli sviluppatori di intelligenza artificiale se un modello di intelligenza artificiale dovesse causare un evento catastrofico.
Il nuovo disegno di legge sull’intelligenza artificiale della California ha annunciato che non ci sarà più un’agenzia Frontier Model Department (FMD). Tuttavia, il disegno di legge istituisce ancora la Frontier Model Commission – il nucleo della FMD – e la colloca all’interno delle agenzie operative governative esistenti. In effetti, il comitato ora è più numeroso, con nove persone invece di cinque. Il Frontier Models Council continuerà a fissare le soglie computazionali per i modelli coperti, a emanare linee guida sulla sicurezza e a emanare regolamenti per i revisori.
Il più grande aggiustamento al disegno di legge rivisto è che al Procuratore Generale della California non è più consentito citare in giudizio le società di intelligenza artificiale per aver trascurato le questioni di sicurezza prima che si verifichi un evento catastrofico. Il disegno di legge originale prevede che finché i revisori dei conti scoprono che le società di intelligenza artificiale svolgono attività illegali nelle operazioni quotidiane, le società potrebbero essere perseguite. Ciò segna uno spostamento del focus normativo del disegno di legge sui danni effettivi e ridurrà anche la pressione di conformità sulle aziende.
Infine, il disegno di legge prevede anche protezioni per gli informatori per i dipendenti di una società di modelli se tentano di divulgare informazioni su modelli di intelligenza artificiale non sicuri al Procuratore generale della California.
La maggior parte delle aziende tecnologiche e delle startup di intelligenza artificiale statunitensi operano in California e saranno soggette alla legge. Nello specifico, questo disegno di legge si concentra su “modelli di intelligenza artificiale all’avanguardia”. Solo gli sviluppatori i cui costi di potenza di calcolo superano i 100 milioni di dollari in modelli di formazione dovranno affrontare i requisiti normativi. In futuro, Llama 4 e GPT-5 potrebbero essere i suoi principali obiettivi normativi.
Il disegno di legge mostra che i chief technology officer delle società di sviluppo di modelli devono presentare certificazioni annuali alla FMD che valutino i potenziali rischi dei loro modelli di intelligenza artificiale, l’efficacia dei loro protocolli di sicurezza e una descrizione di come l’azienda rispetta la SB 1047. Analogamente alle notifiche di violazione, se si verifica un "incidente di sicurezza AI", gli sviluppatori devono segnalarlo alla FMD entro 72 ore dal momento in cui vengono a conoscenza dell'incidente.
L'SB 1047 consente al procuratore generale della California di intentare cause civili contro gli sviluppatori se non rispettano una qualsiasi di queste disposizioni. Per un modello la cui formazione è costata 100 milioni di dollari, la multa potrebbe arrivare fino a 10 milioni di dollari per la prima violazione e fino a 30 milioni di dollari per le violazioni successive. Man mano che i modelli di intelligenza artificiale diventano più costosi, i tassi di penalità aumenteranno.
Una volta verificate le violazioni, le aziende potrebbero dover affrontare multe che vanno da 10 milioni di dollari a 30 milioni di dollari, e tale importo aumenterà con l’aumento del costo della formazione dei modelli.
Inoltre, se gli sviluppatori di modelli e i gestori di cluster informatici non rispettano le norme di cui sopra e causano danni ingenti, se viene accertato che si è effettivamente verificato un comportamento illegale, il tribunale può imporre le seguenti sanzioni:
1. Per gli atti illeciti dal 2026 in poi verranno puniti gli enti che violano la legge per la prima voltail cloud computingLa sanzione non supera il 10% del costo medio del modello nell'ambito della formazione sul mercato. Per violazioni successive, l'importo della sanzione non dovrà superare il 30% di tale costo (calcolato sulla base della soglia di 100 milioni di dollari definita per il modello nell'ambito della formazione). nel disegno di legge, la multa per la prima violazione è di almeno 10 milioni di dollari).
2. Il tribunale può anche emettere un'ingiunzione, inclusa ma non limitata alla modifica, alla chiusura completa o all'eliminazione di tutti i derivati controllati dal modello nell'ambito e dai suoi sviluppatori.
Tuttavia, le sanzioni per la modifica, la chiusura e la cancellazione di un modello compreso nel campo di applicazione possono essere utilizzate solo se cagiona la morte di un'altra persona, lesioni personali gravi, danni materiali o una grave minaccia per l'incolumità pubblica.
Il disegno di legge è stato approvato dalla legislatura della California con relativa facilità, nonostante la forte opposizione dei legislatori statunitensi, di importanti ricercatori sull’intelligenza artificiale, delle grandi aziende tecnologiche e dei venture capitalist. Gli emendamenti potrebbero placare gli oppositori della SB 1047 e fornire al governatore Newsom un disegno di legge meno controverso che potrà firmare e trasformare in legge senza perdere il sostegno dell’industria dell’intelligenza artificiale.
Oggi, sempre più esperti di tecnologia si oppongono alla legge sull’intelligenza artificiale della California.
Anthropic ha affermato che sta esaminando le modifiche all'SB 1047 prima di prendere una decisione. Non tutti i precedenti suggerimenti di revisione dell'azienda sono stati adottati dal senatore Wiener.
La nota società di venture capital a16z ha elencato sul suo sito ufficiale i “6 peccati” dell’AI Safety Act della California:
Questo disegno di legge avrà un effetto dissuasivo sugli investimenti e sullo sviluppo dell’intelligenza artificiale in California.
Il disegno di legge penalizza gli sviluppatori/sviluppatori in base a risultati poco chiari. Non esistono ancora test rilevanti.
Le definizioni vaghe del disegno di legge, abbinate alla stretta responsabilità legale, creano notevole incertezza e rischio economico per gli sviluppatori di intelligenza artificiale e gli imprenditori.
Il disegno di legge potrebbe costringere la ricerca sull’intelligenza artificiale a nascondersi e rendere inavvertitamente i sistemi di intelligenza artificiale meno sicuri.
Questo disegno di legge crea uno svantaggio sistemico per gli sviluppatori open source e startup, che sono al centro dell’innovazione e delle piccole imprese in California.
Questo disegno di legge inibisce la ricerca e l’innovazione sull’intelligenza artificiale negli Stati Uniti e offre opportunità a paesi come la Cina di superare gli Stati Uniti nell’intelligenza artificiale.
Andreessen Horowitz, socio fondatore di a16z, ritiene che, sebbene il disegno di legge sull’intelligenza artificiale della California sia ben intenzionato, potrebbe indebolire l’industria tecnologica statunitense a causa della disinformazione, proprio quando il futuro della tecnologia è a un bivio critico. Gli Stati Uniti hanno bisogno che i leader riconoscano che questo è un momento critico per un’azione normativa intelligente e unificata sull’intelligenza artificiale.
La professoressa dell'Università di Stanford Li Feifei ha pubblicato un articolo sul sito della rivista Fortune spiegando dettagliatamente le ragioni della sua opposizione. Secondo lei i problemi principali di questo disegno di legge sono quattro: punisce eccessivamente gli sviluppatori e potrebbe soffocare l'innovazione; limitare il lavoro di sviluppo open source. Distrugge la comunità open source; indebolisce la ricerca sull’intelligenza artificiale nel mondo accademico e nel settore pubblico, impedendo potenzialmente agli accademici di ricevere maggiori finanziamenti e non affronta i potenziali danni causati dai progressi dell’intelligenza artificiale, come pregiudizi o deepfake.
Inoltre, centinaia di startup supportate dall’incubatore YC ritengono congiuntamente che questo disegno di legge potrebbe avere quattro impatti negativi sul settore e sull’ecosistema degli sviluppatori:
Il disegno di legge dovrebbe punire chi abusa degli strumenti, non gli sviluppatori. Spesso è difficile per gli sviluppatori prevedere le possibili applicazioni dei modelli e gli sviluppatori possono finire in prigione a causa del reato di falsa testimonianza.
Le soglie normative non possono cogliere adeguatamente le dinamiche dello sviluppo tecnologico. Le aziende non californiane potranno sviluppare la tecnologia AI più liberamente, il che potrebbe influire sull’innovazione in California.
Il "Kill Switch" (riferito alla capacità degli sviluppatori di disattivare i modelli) può vietare lo sviluppo di intelligenza artificiale open source e inibire la collaborazione e la trasparenza open source.
Il linguaggio del disegno di legge è vago e può essere interpretato arbitrariamente dai giudici.
Anche Yann LeCun, capo scienziato di Meta e vincitore del Premio Turing 2018, si è opposto a questo disegno di legge. Temeva che se i rischi del modello nell'ambito non fossero stati valutati accuratamente, le clausole di responsabilità solidale avrebbero dimostrato che l'open source. la piattaforma potrebbe dover assumersi la responsabilità.
Andrew Ng, professore in visita presso il Dipartimento di Informatica e il Dipartimento di Ingegneria Elettrica dell'Università di Stanford, ha scritto che il disegno di legge SB-1047 della California soffocherà lo sviluppo di grandi modelli open source. Il disegno di legge dovrebbe regolamentare le applicazioni di intelligenza artificiale piuttosto che i grandi modelli stessi.
È ancora scioccato dall'enorme danno causato dalla proposta di legge SB 1047 della California ai modelli di grandi dimensioni open source. Questo disegno di legge commette un errore grave e fondamentale. Ciò che dovrebbe essere regolamentato sono i prodotti di intelligenza artificiale generativa sviluppati attraverso modelli di grandi dimensioni, non i grandi modelli open source stessi.
Ng ritiene inoltre che SB 1047 richieda agli sviluppatori di proteggere i modelli di grandi dimensioni open source da usi impropri, modifiche e sviluppo di prodotti IA derivati illegali. Tuttavia, il modo in cui gli sviluppatori dovrebbero proteggere e definire questi comportamenti è ancora molto vago e non esiste una regolamentazione dettagliata.
Pertanto, Andrew Ng invita vivamente tutti a boicottare la legge SB 1047. Crede che se verrà approvata, avrà un colpo devastante per l'innovazione dei grandi modelli open source e, allo stesso tempo, la California perderà la motivazione per farlo. Innovazione dell'intelligenza artificiale.
Rispetto all’opposizione, ci sono attualmente alcuni professionisti della tecnologia che sostengono la legge sull’intelligenza artificiale della California.
Tra questi, sebbene il governatore della California Newsom non abbia commentato pubblicamente l’SB 1047, ha precedentemente espresso il suo impegno per l’innovazione dell’intelligenza artificiale in California.
Allo stesso tempo, il vincitore del Turing Award e "Padrino dell'intelligenza artificiale" Geoffrey Hinton, il vincitore del Turing Award Yoshua Bengio, il professore della Harvard Law School Lawrence Lessig) e Stuart Russell, autore del popolare libro di testo sull'intelligenza artificiale "Artificial Intelligence: A Modern Approach" e professore presso l'Università della California, Berkeley, hanno scritto congiuntamente alla legislatura della California per esprimere il loro sostegno al California AI Safety Act "Forte sostegno".
I quattro studiosi hanno sottolineato di essere profondamente preoccupati per i rischi dell’intelligenza artificiale e che l’AI Safety Act della California è il requisito minimo per regolamentare efficacemente la tecnologia. "Il disegno di legge non ha un sistema di licenze e non richiede alle aziende di ottenere il permesso dalle agenzie governative prima di addestrare o implementare modelli. Si basa sull'autovalutazione del rischio da parte delle aziende e non ritiene le aziende strettamente responsabili anche in caso di disastro. Relativo a ciò che dobbiamo affrontare Il rischio è che si tratti di una legislazione molto flessibile. Le attuali leggi che regolano l'intelligenza artificiale non sono così rigide come quelle che regolamentano le paninerie. Sarebbe un errore storico annullare le misure di base del disegno di legge un anno dopo la prossima generazione sarà più severa. Questo errore diventerà più evidente quando verranno rilasciati potenti sistemi di intelligenza artificiale.
"Quarant'anni fa, quando mi allenavo ChatGPT Quando si è trattato delle prime versioni degli algoritmi di intelligenza artificiale alla base degli strumenti, nessuno, me compreso, avrebbe previsto che l’intelligenza artificiale avrebbe fatto progressi così grandi. I potenti sistemi di intelligenza artificiale hanno promesse incredibili, ma anche i rischi sono molto reali e dovrebbero essere presi molto sul serio. SB 1047 adotta un approccio molto intelligente per bilanciare queste preoccupazioni. Rimango appassionato del potenziale dell’intelligenza artificiale per salvare vite umane migliorando la scienza e la medicina, ma dobbiamo sviluppare una legislazione veramente forte per affrontare i rischi. La California è il punto di partenza di questa tecnologia perché è lì che è decollata. Ha detto Hinton.
I quattro studiosi sottolineano inoltre nella lettera che, indipendentemente dal fatto che questi rischi siano infondati o reali, le parti interessate devono assumersi la responsabilità di mitigare i rischi. "Essendo il gruppo di esperti che meglio comprende questi sistemi", ritengono che questi rischi siano possibili e sufficientemente significativi da richiedere test di sicurezza e precauzioni basate sul buon senso.
Il senatore della California Scott Wiener, l'autore del disegno di legge, ha affermato che l'SB 1047 mira a imparare dai fallimenti passati dei social media e delle politiche sulla privacy dei dati e a proteggere i cittadini prima che sia troppo tardi.
"Il nostro atteggiamento nei confronti della tecnologia è quello di aspettare che si verifichi un danno e poi non fare nulla al riguardo", ha detto Wiener. "Non aspettiamo che accada qualcosa di brutto. Vogliamo agire prima che accada."
Gli sviluppatori non andranno in prigione per non aver previsto i rischi del modello. In primo luogo, gli sviluppatori e gli accademici in fase di avvio non devono preoccuparsi poiché il disegno di legge non si applica a loro. In secondo luogo, la clausola sullo spergiuro nel disegno di legge avrà effetto solo quando lo sviluppatore "consapevolmente" fa una dichiarazione falsa, e una valutazione errata involontaria delle capacità del modello non attiverà la clausola sullo spergiuro (questa clausola è stata cancellata nell'emendamento di oggi).
Il disegno di legge non crea responsabilità completamente nuove. Secondo le leggi esistenti, sia gli sviluppatori di modelli che i singoli sviluppatori possono essere citati in giudizio se un modello causa danni, e si applica a modelli di tutte le abilità e tutti gli individui feriti possono fare causa. Il nuovo disegno di legge della California non solo limita la portata della regolamentazione, ma limita anche il diritto di fare causa a due entità, il procuratore generale della California e il consiglio del lavoro.
Il disegno di legge non soffocherà l’innovazione della California. Questo disegno di legge si applica a tutte le aziende che operano in California, anche se trasferiscono la propria sede fuori dalla California, devono rispettare le normative pertinenti (Nota Zhixi: la California è la quinta economia mondiale in base al PIL e dispone di un ecosistema tecnologico completo. Tecnologia. aziende È difficile separarsi dalla California). Quando la California approvò le leggi sulla privacy dei dati e sulla protezione ambientale, molte persone sostenevano che ciò avrebbe ostacolato l’innovazione, ma il fatto è che la California è ancora leader nell’innovazione.
I kill switch e i requisiti di valutazione della sicurezza non ostacoleranno lo sviluppo dell’intelligenza artificiale open source. Il disegno di legge è stato ora rivisto e rafforzato la protezione dell’IA open source. Il requisito per l'arresto di emergenza del modello nella fattura si applica solo ai modelli sotto il controllo dello sviluppatore, esclusi i modelli open source non controllati. Il disegno di legge istituisce inoltre un nuovo comitato consultivo per sostenere e sostenere gli sforzi di sviluppo di un’intelligenza artificiale open source sicura e affidabile.
Secondo il disegno di legge, anche se un’azienda formasse un modello da 100 milioni di dollari in Texas o in Francia, sarebbe protetta dalla SB 1047 fintanto che opera in California. Wiener ha affermato che il Congresso "non ha prodotto quasi nessuna legislazione sulla tecnologia negli ultimi 25 anni", quindi ritiene che la California dovrebbe costituire il precedente in questo campo.
Dan Hendrycks, direttore del Center for Artificial Intelligence Safety, ha dichiarato: "Questo disegno di legge è nell'interesse a lungo termine della California e dell'industria statunitense, perché gravi incidenti di sicurezza potrebbero rappresentare il più grande ostacolo all'ulteriore sviluppo".
Anche diversi ex dipendenti di OpenAI hanno sostenuto il disegno di legge, tra cui Daniel Kokotajlo, che ha rinunciato volontariamente alle sue opzioni OpenAI in cambio del diritto di criticare liberamente l'azienda. Egli ritiene che le affermazioni dei critici del disegno di legge secondo cui i progressi dell’intelligenza artificiale si fermeranno probabilmente non si realizzeranno.
Simon Last, il fondatore di Notion, un unicorno sull’intelligenza artificiale valutato decine di miliardi di dollari, ha scritto un articolo in cui afferma di sostenere il disegno di legge e di ritenere che quando le leggi sull’intelligenza artificiale a livello federale saranno difficili da attuare, la California, come centro tecnologico nel Gli Stati Uniti, e anche il mondo intero, sono gravati di importanti responsabilità. Ritiene che la supervisione dei modelli non solo migliorerà la loro sicurezza, ma faciliterà anche le startup di intelligenza artificiale che costruiscono prodotti su modelli di base, riducendo così l’onere per le piccole e medie imprese.
"L'obiettivo dell'SB 1047 è - ed è sempre stato - migliorare la sicurezza dell'intelligenza artificiale pur consentendo all'intero ecosistema di innovarsi", ha affermato Nathan Calvin, consulente politico senior presso il Center for AI Safety Action Fund. "I nuovi emendamenti lo sosterranno obiettivo. "
L'SB 1047 andrà ora all'Assemblea della California per il voto finale. Se il disegno di legge passa all’Assemblea, dovrà tornare al Senato della California per una votazione a causa degli ultimi emendamenti. Se il disegno di legge verrà approvato contemporaneamente, sarà inviato alla scrivania del governatore della California Gavin Newsom, che prenderà una decisione definitiva sulla firma del disegno di legge entro la fine di agosto.
Wiener ha detto di non aver parlato con Newsom del disegno di legge e di non sapere la sua posizione.