notizia

La "madrina dell'intelligenza artificiale" Li Feifei ha scritto personalmente: la legge sulla sicurezza dell'intelligenza artificiale della California danneggerà l'ecosistema degli Stati Uniti|Titanium Media AGI

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Secondo le notizie dell'app TMTpost del 7 agosto, "Godmother of AI", accademico della National Academy of Engineering, accademico della National Academy of Medicine, accademico dell'American Academy of Arts and Sciences, il primo Sequoia Chair Professor presso l'Università di Stanford, Dean Feifei Li, Stanford Human-Centered Artificial Intelligence Institute (HAI), ha scritto questa mattina un articolo su "Fortune" e ha sottolineato che l'imminente implementazione dell'AI ​​​​Safety Act in California danneggerà gli sviluppatori, il mondo accademico e persino l'intero L’ecosistema AI degli Stati Uniti, ma non risolverà il potenziale danno dell’IA.

“Oggi, l’intelligenza artificiale è più avanzata che mai. Tuttavia, da un grande potere derivano grandi responsabilità. I ​​politici, la società civile e gli attori del settore sono alla ricerca di un approccio di governance che riduca al minimo i potenziali danni e modelli una società basata sull’intelligenza artificiale sicura e incentrata sull’uomo alcuni di questi sforzi, ma sono diffidente nei confronti di altri; il Safe Innovation for Frontier Artificial Intelligence Models Act della California (di seguito denominato SB-1047) rientra in quest'ultima categoria l'intero paese", ha detto Li Feifei.

È stato riferito che nel luglio di quest'anno il Senato della California ha approvato una versione del disegno di legge SB-1047, che richiede agli sviluppatori di dimostrare che i loro modelli di intelligenza artificiale non verranno utilizzati per causare danni. Si tratta di più delle oltre 600 proposte di legge sull'intelligenza artificiale da parte dei legislatori statali statunitensi quest’anno. Troppe restrizioni per attirare l’attenzione. Questa proposta estremamente dannosa potrebbe essere trasformata in legge dal governatore della California Gavin Newsom nell’agosto di quest’anno.

Secondo la definizione del disegno di legge, il Llama-3 di Meta è definito come un "modello all'avanguardia" che costa più di 100 milioni di dollari per l'addestramento. Meta sarà inoltre severamente sanzionata qualora qualcuno utilizzi il modello per scopi illeciti. Allo stesso tempo, la Sezione 22603(a)(3)(4) della Legge richiede "Esenzione dai Dazi Limitati" per presentare la certificazione alle agenzie governative e interrompere il funzionamento del modello in caso di errori, mentre la Sezione 22603(b) richiede gli sviluppatori possono segnalare potenziali incidenti di sicurezza dell'intelligenza artificiale per qualsiasi modello. Se uno sviluppatore non riesce a controllare completamente le varie versioni derivate in base al suo modello, se si verifica un incidente di sicurezza, la responsabilità ricadrà sul primo sviluppatore——Ciò equivale ad una responsabilità solidale

Inoltre, la sezione 22604(a)(b) del disegno di legge stabilisce che quando gli utenti utilizzano i loro "modelli all'avanguardia" e risorse informatiche, gli sviluppatori devono fornire tutte le informazioni sul cliente, inclusa l'identità del cliente, il numero di carta di credito, il numero di conto, e identificatore di identificazione del cliente, identificatore della transazione, e-mail, numero di telefono. Inoltre, le informazioni devono essere fornite una volta all'anno e vengono valutati il ​​comportamento e le intenzioni dell'utente. Tutte le informazioni dell'utente verranno salvate per 7 anni e saranno inoltre archiviate presso l'Amministrazione delle dogane e delle frontiere.

La posizione geografica della California negli Stati Uniti è molto speciale. Ospita scuole famose come Stanford, Caltech e la University of Southern California, oltre a Google, Apple,IA aperta È anche sede del quartier generale di giganti della tecnologia come Meta e Meta. Pertanto, a questo proposito, Yann LeCun, vincitore del Premio Turing e capo scienziato dell'intelligenza artificiale di Meta, Li Feifei, Andreessen Horowitz, socio fondatore dell'istituto di investimento a16z, Dipartimento di Informatica e Dipartimento di Ingegneria Elettrica dell'Università di Stanford Il professore in visita Andrew Ng e altri espresso obiezioni.

Tra questi, Yang Likun ha avvertito che la "clausola di responsabilità solidale del disegno di legge esponerà le piattaforme di intelligenza artificiale open source a enormi rischi... Meta non sarà influenzata, ma le startup di intelligenza artificiale falliranno se questi modelli verranno utilizzati". maliziosamente da altri, il disegno di legge impone agli sviluppatori di intelligenza artificiale di assumersi la responsabilità civile e persino penale per i modelli che sviluppano.

Horowitz ritiene che, sebbene il disegno di legge anti-IA della California sia ben intenzionato, potrebbe indebolire l’industria tecnologica statunitense a causa della disinformazione, proprio quando il futuro della tecnologia è a un bivio critico. Gli Stati Uniti hanno bisogno che i leader riconoscano che questo è un momento critico per un’azione normativa intelligente e unificata sull’intelligenza artificiale.

Andrew Ng ha pubblicato un articolo in cui afferma che la legge SB-1047 della California soffocherà lo sviluppo di grandi modelli open source. Ha inoltre sottolineato,Sono le applicazioni IA che dovrebbero essere regolamentate, non i grandi modelli stessi

Li Feifei ritiene che le politiche sull’intelligenza artificiale debbano incoraggiare l’innovazione, stabilire restrizioni adeguate e mitigare l’impatto di tali restrizioni. Le politiche che non riescono a farlo, nella migliore delle ipotesi, non riusciranno a raggiungere i loro obiettivi e, nella peggiore, porteranno a conseguenze gravi e indesiderate. Se l’SB-1047 diventasse legge, danneggerebbe il nascente ecosistema americano dell’intelligenza artificiale, in particolare quelle parti che sono già svantaggiate dai giganti della tecnologia di oggi: il settore pubblico, il mondo accademico e la “piccola tecnologia”. SB-1047 penalizzerebbe inutilmente gli sviluppatori, soffocerebbe la nostra comunità open source e ostacolerebbe la ricerca accademica sull’intelligenza artificiale senza riuscire a risolvere i problemi reali per cui è progettata.

Li Feifei ha fornito quattro ragioni:

Innanzitutto, SB-1047 punirebbe indebitamente gli sviluppatori e soffocherebbe l’innovazione. Se un modello di intelligenza artificiale viene utilizzato in modo improprio, SB-1047 riterrà responsabili le parti responsabili e gli sviluppatori originali del modello. È impossibile per ogni sviluppatore di intelligenza artificiale (soprattutto programmatori e imprenditori in erba) prevedere ogni possibile utilizzo del proprio modello. SB-1047 costringerà gli sviluppatori a ritirarsi e a mettersi sulla difensiva, esattamente ciò che stiamo cercando di evitare.

In secondo luogo, SB-1047 limiterà lo sviluppo open source. SB-1047 richiede che tutti i modelli che superano una determinata soglia includano un "kill switch", un meccanismo che può arrestare il programma in qualsiasi momento. Gli sviluppatori saranno ancora più riluttanti a programmare e collaborare se temono che i programmi che scaricano e creano vengano eliminati. Questo kill switch devasterebbe la comunità open source, fonte di innumerevoli innovazioni, non solo nell’intelligenza artificiale ma in tutto, dal GPS alla risonanza magnetica fino a Internet stessa.

In terzo luogo, l’SB-1047 indebolirà la ricerca sull’intelligenza artificiale nel settore pubblico e nel mondo accademico. Lo sviluppo dell’open source è importante per il settore privato, ma è fondamentale anche per il mondo accademico, che non può avanzare senza la collaborazione e i dati modello. Prendiamo, ad esempio, gli studenti di informatica che lavorano su modelli di intelligenza artificiale aperti. Se le nostre istituzioni non hanno accesso a modelli e dati appropriati, come formeremo la prossima generazione di leader dell’IA? Un kill switch minerebbe ulteriormente gli sforzi di questi studenti e ricercatori, che si trovano già in una posizione di svantaggio in termini di dati e calcolo rispetto alle grandi aziende tecnologiche. L'SB-1047 suonerà la "campana a morto" per l'intelligenza artificiale del mondo accademico e del settore pubblico che dovrebbe raddoppiare gli investimenti.

La cosa più preoccupante è che il disegno di legge non affronta i potenziali danni dello sviluppo dell’intelligenza artificiale, inclusi pregiudizi e deepfake. Invece, l’SB-1047 stabilisce una soglia arbitraria, regolando i modelli che utilizzano una certa quantità di potenza di calcolo o che costano 100 milioni di dollari per l’addestramento. Lungi dal fornire protezione, questa misura limiterà solo l’innovazione in vari campi, compreso il mondo accademico.

Li Feifei ha sottolineato che oggi i modelli di intelligenza artificiale nel mondo accademico sono al di sotto di questa soglia, ma se gli Stati Uniti riequilibrano gli investimenti nell’intelligenza artificiale del settore privato e pubblico, il mondo accademico sarà regolato dall’SB-1047 e di conseguenza l’ecosistema dell’intelligenza artificiale statunitense peggiorerà. . Pertanto, gli Stati Uniti devono fare il contrario.

"In numerose conversazioni con il presidente Biden nell'ultimo anno, ho espresso la necessità di una 'mentalità lunare' per promuovere l'istruzione, la ricerca e lo sviluppo dell'intelligenza artificiale nel nostro paese. Tuttavia, le restrizioni di SB-1047 sono troppo arbitrarie e non colpiranno solo California L'ecosistema dell'intelligenza artificiale avrà anche effetti a valle inquietanti sull'intelligenza artificiale in tutto il paese." Li Feifei ha sottolineato di non essere contraria alla governance dell'intelligenza artificiale. La legislazione è fondamentale per lo sviluppo sicuro ed efficace dell’IA. Ma la politica sull’intelligenza artificiale deve promuovere lo sviluppo open source, proporre regole uniformi e ragionevoli e rafforzare la fiducia dei consumatori. SB-1047 non soddisfa questi standard.

Li Feifei ha sottolineato di aver proposto una cooperazione al senatore Scott Wiener, l’autore del disegno di legge: formuliamo insieme una legislazione sull’intelligenza artificiale e costruiamo veramente una società futura guidata dalla tecnologia e centrata sulle persone.

“In effetti, il futuro dell’intelligenza artificiale dipende da questo. La California, in quanto entità pioniera e sede dell’ecosistema AI più robusto della nostra nazione, è al centro del movimento dell’intelligenza artificiale e gli sviluppi in California avranno un impatto sul resto del paese. ", ha detto Li Feifei alla fine.