notizia

Il colosso di Turing si scioglie nuovamente! Inizialmente viene approvata la legge sulla restrizione dell’intelligenza artificiale della California sostenuta da Hinton, LeCun, Li Feifei, Wu En

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nuovo rapporto sulla saggezza

Redattore: Così assonnato

[Introduzione alla Nuova Saggezza]L'"AI Restriction Act" della California è stato inizialmente approvato con successo tra la forte opposizione dei magnati dell'intelligenza artificiale, delle principali società tecnologiche, delle startup e dei venture capitalist.

Come tutti sappiamo, a parte le interpretazioni presenti in vari film di fantascienza, l’intelligenza artificiale non ha ucciso nessuno nel mondo reale, né ha lanciato attacchi informatici su larga scala.

Tuttavia, alcuni legislatori statunitensi sperano ancora che possa essere implementata un’adeguata sicurezza prima che questo futuro distopico diventi realtà.


Proprio questa settimana, il Frontier Artificial Intelligence Model Security Innovation Act della California, SB 1047, ha compiuto ancora una volta un passo importante verso la legge.


In poche parole, l’SB 1047 impedirà ai sistemi di intelligenza artificiale di causare vittime di massa o innescare incidenti di sicurezza informatica che costano più di 500 milioni di dollari, ritenendo gli sviluppatori responsabili.

Tuttavia, l’opposizione del mondo accademico e dell’industria è stata così forte che i legislatori della California sono scesi a un leggero compromesso aggiungendo diversi emendamenti suggeriti dalla startup di intelligenza artificiale Anthropic e altri oppositori.

Rispetto alla proposta originale, la versione attuale riduce il potere del governo della California di ritenere responsabili i laboratori di intelligenza artificiale.


Indirizzo della fattura: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

Ma anche così, (quasi) a nessuno piace l’SB 1047.

Giganti dell’intelligenza artificiale come Yann LeCun, Li Feifei e Ng Enda hanno ripetutamente espresso la loro insoddisfazione per questo disegno di legge che “soffoca l’intelligenza artificiale open source e costringe l’innovazione dell’intelligenza artificiale a essere sospesa o addirittura fermata”.




Si susseguono inoltre diverse lettere congiunte:

Non solo più di 40 ricercatori dell’Università della California, dell’Università della California del Sud, dell’Università di Stanford e del California Institute of Technology hanno lanciato un forte appello affinché non venga approvata questa legge.



E anche otto membri del Congresso in rappresentanza di vari distretti della California hanno esortato il governatore a porre il veto al disegno di legge.




LeCun ha persino copiato il messaggio originale che ha usato quando ha chiesto una moratoria sulla ricerca sull’IA: per favore, sospendete la legislazione sull’IA per sei mesi!


Quindi la domanda è: perché l'articolo precedente utilizzava "quasi tutti"?

Perché, oltre a LeCun, anche gli altri due colossi di Turing, Yoshua Bengio e Geoffrey Hinton, sostengono con forza l'approvazione di questa legge.

Ho anche la sensazione che i termini attuali siano un po’ troppo vaghi.


In qualità di ricercatori senior in materia di tecnologia e politica dell'intelligenza artificiale, scriviamo per esprimere il nostro forte sostegno al disegno di legge 1047 del Senato della California. SB 1047 delinea i requisiti di base per una regolamentazione efficace di questa tecnologia. Non implementa un sistema di licenze, non richiede alle aziende di ottenere il permesso dalle agenzie governative prima di addestrare o implementare modelli, fa affidamento sulle aziende per valutare autonomamente i rischi e non ritiene le aziende strettamente responsabili anche in caso di disastro. Si tratta di una legislazione relativamente indulgente rispetto alla portata dei rischi che affrontiamo. Annullare le misure di base del disegno di legge sarebbe un errore storico, che diventerà ancora più evidente tra un anno, quando verrà rilasciata la prossima generazione di sistemi di intelligenza artificiale più potenti.

Oggi, l’SB 1047 è passato con relativa facilità nella legislatura della California, nonostante la forte opposizione di alcuni membri del Congresso statunitense, noti ricercatori di intelligenza artificiale, grandi aziende tecnologiche e venture capitalist.

Successivamente, l'SB 1047 andrà all'Assemblea della California per un voto finale. A causa dell'aggiunta degli ultimi emendamenti, una volta approvato il disegno di legge, dovrà essere rinviato al Senato della California per una votazione.

Se entrambi questi voti passano, l’SB 1047 sarà inviato al governatore in attesa del veto finale o della firma della legge.

Quali modelli e aziende saranno vincolati?

Secondo i requisiti di SB 1047, gli sviluppatori o le aziende che sviluppano modelli devono essere responsabili di impedire che i loro modelli di intelligenza artificiale vengano utilizzati per causare “danni significativi”.

Come la creazione di armi di distruzione di massa o il lancio di attacchi informatici che costano più di 500 milioni di dollari. A proposito, il “Global Windows Blue Screen Incident” di CrowdStrike ha causato perdite per oltre 5 miliardi di dollari.

Tuttavia, le regole di SB 1047 si applicano solo a modelli di intelligenza artificiale molto grandi, ovvero il costo di formazione è di almeno 100 milioni di dollari e il numero di operazioni in virgola mobile supera 10^26. (Sostanzialmente basato sul costo di formazione di GPT-4)

Si dice che la quantità di calcoli richiesti dalla prossima generazione di Meta Llama 4 aumenterà di 10 volte, e quindi sarà regolata anche da SB 1047.

Per i modelli open source e le loro versioni perfezionate, sono responsabili gli sviluppatori originali. A meno che il costo non raggiunga 3 volte il modello originale.

Da questo punto di vista, non c'è da stupirsi che la reazione di LeCun sia stata così violenta.

Inoltre, gli sviluppatori devono creare procedure di test che affrontino i rischi del modello di intelligenza artificiale e devono assumere annualmente revisori di terze parti per valutare le loro pratiche di sicurezza dell’intelligenza artificiale.

Per i prodotti di intelligenza artificiale costruiti sulla base di modelli, è necessario sviluppare protocolli di sicurezza corrispondenti per prevenire gli abusi, incluso un pulsante di “arresto di emergenza” che spenga l’intero modello di intelligenza artificiale.

ecc……

Qual è la funzione attuale di SB 1047?

Oggi, l’SB 1047 non consente più al procuratore generale della California di citare in giudizio le società di intelligenza artificiale per negligenza nelle misure di sicurezza prima che si verifichi un evento catastrofico. (Suggerimento da Anthropic)

Invece, il procuratore generale della California potrebbe chiedere un’ingiunzione che imponga a una società di interrompere un’operazione che ritiene pericolosa e potrebbe comunque citare in giudizio gli sviluppatori di intelligenza artificiale se i loro modelli portano a eventi catastrofici.

La SB 1047 non istituisce più la nuova agenzia governativa "Frontier Modeling Division (FMD)" originariamente inclusa nel disegno di legge.

Tuttavia, il nucleo dell’FMD, il Comitato del Modello di Frontiera, era ancora costituito e collocato all’interno dell’esistente Agenzia per le Operazioni Governative, e le sue dimensioni furono ampliate dalle precedenti 5 a 9 persone. Il comitato fisserà comunque le soglie computazionali per i modelli coperti, emetterà linee guida sulla sicurezza ed emanerà regolamenti per i revisori.

SB 1047 ha anche una formulazione più flessibile quando si tratta di garantire la sicurezza dei modelli IA.

Ora, gli sviluppatori devono solo fornire “un’assistenza ragionevole” per garantire che i modelli di intelligenza artificiale non comportino un rischio significativo di disastro, invece della “ragionevole garanzia” precedentemente richiesta.

Inoltre, gli sviluppatori devono solo presentare una "dichiarazione" pubblica che delinea le loro misure di sicurezza e non devono più presentare la certificazione dei risultati dei test di sicurezza sotto pena di falsa testimonianza.

Esiste anche una protezione separata per i modelli di fine tuning open source. Se qualcuno spende meno di 10 milioni di dollari per mettere a punto un modello, non è considerato uno sviluppatore e la responsabilità rimane del grande sviluppatore originale del modello.

Li Feifei una volta scrisse personalmente un articolo in cui criticava

L'impatto di SB 1047 sul settore dell'intelligenza artificiale può essere visto nella colonna di "AI Godmother" Li Feifei sulla rivista Fortune:

“Se diventasse legge, l’SB 1047 danneggerebbe il nascente ecosistema americano dell’intelligenza artificiale, in particolare quelle parti che sono già svantaggiate: il settore pubblico, il mondo accademico e le piccole aziende tecnologiche penalizzeranno inutilmente gli sviluppatori, soffocheranno la comunità open source e limiteranno il mondo accademico anche la ricerca non riesce a risolvere il vero problema”.


In primo luogo, l’SB 1047 punirebbe indebitamente gli sviluppatori e soffocherebbe l’innovazione.

Nei casi in cui un modello di intelligenza artificiale viene utilizzato in modo improprio, SB 1047 attribuisce la colpa alla parte responsabile e allo sviluppatore originale del modello. Per ogni sviluppatore di intelligenza artificiale, in particolare programmatori e imprenditori in erba, prevedere ogni possibile utilizzo dei propri modelli è impossibile. L'SB 1047 costringerà gli sviluppatori ad adottare misure difensive, cosa che dovrebbe essere evitata a tutti i costi.

In secondo luogo, SB 1047 limiterà lo sviluppo open source.

SB 1047 richiede che tutti i modelli che superano una certa soglia includano un "pulsante di arresto di emergenza", un meccanismo che può arrestare il programma in qualsiasi momento. Se gli sviluppatori temono che i programmi che scaricano e creano verranno eliminati, saranno più riluttanti a programmare o collaborare. Questo pulsante di arresto di emergenza avrà un grave impatto sulla comunità open source, non solo nell’intelligenza artificiale, ma in innumerevoli fonti di innovazione in campi diversi come GPS, risonanza magnetica e Internet stessa.

In terzo luogo, l’SB 1047 indebolirà la ricerca sull’intelligenza artificiale nel settore pubblico e nel mondo accademico.

Lo sviluppo dell’open source è importante nel settore privato, ma lo è ancora di più nel mondo accademico, che non può fare progressi senza la collaborazione e l’accesso ai dati modello. Come possono i ricercatori formare la prossima generazione di leader dell’IA se non hanno accesso a modelli e dati appropriati? Un pulsante di arresto di emergenza indebolirebbe ulteriormente il mondo accademico, che è già in svantaggio in termini di dati e informatica. L’SB 1047 assesterà un colpo fatale all’intelligenza artificiale accademica in un momento in cui dovremmo investire di più nell’intelligenza artificiale del settore pubblico.

La cosa più preoccupante è che l’SB 1047 non affronta i potenziali rischi dei progressi dell’intelligenza artificiale, inclusi pregiudizi e deepfake. Invece, fissa una soglia molto arbitraria: una certa quantità di potenza di calcolo o un modello il cui addestramento costa 100 milioni di dollari. Questa misura non solo non riesce a fornire protezione, ma limiterà l’innovazione in vari campi, compreso quello accademico.

Li Feifei ha affermato di non essere contraria alla governance dell’IA. La legislazione è fondamentale per lo sviluppo sicuro ed efficace dell’IA. Tuttavia, la politica sull’IA deve sostenere lo sviluppo open source, stabilire regole uniformi e ragionevoli e rafforzare la fiducia dei consumatori.

Chiaramente, SB 1047 non soddisfa questi standard.

Riferimenti:

https://techcrunch.com/2024/08/15/california-weakens-bill-to-prevent-ai-disasters-before-final-vote-taking-advice-from-anthropic/

https://techcrunch.com/2024/08/15/california-ai-bill-sb-1047-aims-to-prevent-ai-disasters-but-silicon-valley-warns-it-will-cause-one/

https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/