notizia

openai sfugge alla morte? la legge sull'intelligenza artificiale della california è stata appena approvata, lecun, li feifei e ng enda sono estasiati

2024-09-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

redattore: dipartimento editoriale hyz

[introduzione alla nuova saggezza]buona celebrazione! proprio ora, il governatore della california ha annunciato che avrebbe posto il veto alla legge sulla restrizione dell’intelligenza artificiale della california. lecun, li feifei e ng enda si sono precipitati a raccontarsi emozionati e hanno festeggiato con la fronte e con le mani. bengio e hinton, che sostengono fortemente il disegno di legge, sono rimasti in silenzio. openai, google e meta sono tutti scampati al disastro.

pesante!

questa mattina presto, il governatore della california gavin newsom ha annunciato ufficialmente che avrebbe posto il veto alla legge sb-1047!

per gli sviluppatori di tutto il mondo l'annullamento della legge sb-1047 significa che i modelli open source dei principali produttori come meta e google continueranno ad essere nuovamente disponibili.

si può dire che questa decisione fosse ampiamente attesa. i grandi nomi del circolo dell'ia si sono precipitati a raccontarselo con entusiasmo, e ng enda, lecun e li feifei, che hanno avuto un ruolo importante nell'opposizione, erano particolarmente felici.

cosa significa il veto del governatore della california?

la fattura sb-1047 è davvero la fine.

il "famigerato" sb-1047 stabilisce che l'sb 1047 impedirà ai sistemi di intelligenza artificiale di causare vittime di massa o innescare incidenti di sicurezza informatica che costano più di 500 milioni di dollari, ritenendo gli sviluppatori responsabili.

non appena la notizia è uscita, ha suscitato un’enorme opposizione da parte del mondo accademico e dell’industria.

sapete, 32 delle 50 principali aziende genai del mondo hanno sede in california e svolgono un ruolo chiave nella definizione del futuro dell'ia.

secondo un comunicato stampa dell'ufficio della california, gavin ha firmato 18 progetti di legge genai nell'ultimo mese, ma ha posto il veto solo su sb-1047.

negli ultimi 30 giorni, il governatore ha firmato una serie di progetti di legge per combattere i contenuti deepfake, proteggere i diritti di immagine digitale degli artisti e altro ancora

questo disegno di legge ha buone intenzioni, ma in pratica presenta alcuni seri problemi.

"non penso che questo sia il modo migliore per proteggere il pubblico dalle reali minacce poste dall'intelligenza artificiale", ha affermato.

sb-1047 non tiene conto se il sistema ai è implementato in un ambiente ad alto rischio, implica decisioni critiche o utilizza dati sensibili. invece, il disegno di legge applica standard rigorosi alla funzione più elementare di implementazione di sistemi modello di grandi dimensioni.

nel processo di rifiuto di sb-1047, il ruolo della madrina dell'ia li feifei non può essere ignorato.

la professoressa di stanford li feifei ha affermato con gioia di essere profondamente onorata di lavorare con stanfordhai per aprire la strada a una governance responsabile dell’ia in california.

il guru dell’intelligenza artificiale andrew ng ha anche ringraziato li feifei per la sua opposizione pubblica all’sb-1047, affermando che i suoi sforzi possono promuovere politiche di intelligenza artificiale più razionali per proteggere la ricerca e l’innovazione.

solo pochi giorni fa, quando il disegno di legge sb-1047 stava per essere finalizzato, ng e lecun stavano ancora chiedendo e lanciando votazioni con ansia, temendo che, una volta approvata, l’intelligenza artificiale open source e l’intero ecosistema dell’intelligenza artificiale avrebbero avuto un effetto agghiacciante.

oggi, le aziende di intelligenza artificiale in tutta la california stanno finalmente tirando un sospiro di sollievo.

lettera di veto del governatore: non firmata

"con la presente restituisco il disegno di legge 1047 del senato senza la mia firma."

nella lettera, il governatore ha riconosciuto che l’sb-1047 sopravvaluta la minaccia che l’impiego dell’intelligenza artificiale potrebbe rappresentare.

inoltre, concentrandosi solo sui modelli più costosi su larga scala, il disegno di legge in realtà dà al pubblico un “falso senso di sicurezza”.

ha osservato che anche i modelli proprietari più piccoli possono essere altrettanto pericolosi.

in breve, la regolamentazione dell’intelligenza artificiale prevista dal disegno di legge va a scapito della “limitazione dell’innovazione a vantaggio dell’interesse pubblico”.

il governatore ha affermato che l’applicazione da parte del disegno di legge degli standard più severi alle funzioni più basilari non è il modo migliore per proteggere il pubblico dalle minacce derivanti dalla tecnologia dell’intelligenza artificiale.

la soluzione migliore è un piano che non si basi sull’analisi delle traiettorie di sviluppo empirico dei sistemi e delle capacità di intelligenza artificiale.

il capo dell'intelligenza artificiale lo odia

questo tipo di finale può essere descritto come un finale molto soddisfacente per la maggior parte delle persone tranne bengio e hinton.

quando si tratta di sb-1047, molti pezzi grossi lo odiano.

tutta la storia è questa.

l’anno scorso, il governatore della california ha firmato un ordine esecutivo in cui sottolineava che la california dovrebbe essere più prudente nel suo atteggiamento nei confronti della genai e rendere l’intelligenza artificiale più etica, trasparente e affidabile.

nel febbraio di quest'anno, la california ha redatto direttamente un disegno di legge chiamato "sb-1047 frontier ai large model safety innovation act", che fornisce norme più specifiche per l'uso sicuro e trasparente di modelli di grandi dimensioni.

tuttavia, contiene molti contenuti irragionevoli che semplicemente soffocano il nome di alcune aziende.

bisogna evitare che i modelli che costano più di 100 milioni causino “danni significativi”

ad esempio, esiste un regolamento che stabilisce che se un modello di grandi dimensioni i cui costi di sviluppo e formazione superano i 100 milioni di dollari usa e le cui operazioni in virgola mobile superano 10^26 volte viene utilizzato da qualcuno per fare cose illegali dopo essere stato reso open source, lo sviluppatore del modello sarà anche severamente punito.

dovresti sapere che il modello llama 3 di meta, il modello gemma di google, ecc. soddisfano tutti questa condizione.

questa disposizione è ovviamente estremamente controversa.

ad esempio, se qualcuno si intromette in un sistema di guida autonoma e provoca un incidente, anche l’azienda che ha sviluppato il sistema sarà ritenuta responsabile?

secondo il disegno di legge, gli sviluppatori sono tenuti a valutare i derivati ​​dei loro modelli e prevenire qualsiasi danno che potrebbero causare, anche se i clienti perfezionano i modelli, modificano in altro modo i modelli (jailbreak) o li combinano con altri software.

tuttavia, una volta rilasciato il software open source, gli utenti possono scaricare il modello direttamente sui propri dispositivi personali, in modo che gli sviluppatori non abbiano modo di conoscere le operazioni specifiche di altri sviluppatori o clienti.

inoltre, nel disegno di legge sono presenti molte definizioni vaghe.

ad esempio, le "lesioni critiche" a un modello di intelligenza artificiale sono descritte come vittime ingenti, perdite superiori a 500 milioni di dollari o altre lesioni "ugualmente gravi". ma a quali condizioni gli sviluppatori saranno ritenuti responsabili? quali responsabilità ci sono?

su questo il disegno di legge tace.

inoltre, il disegno di legge si applica ai modelli di intelligenza artificiale che hanno speso più di 100 milioni di dollari per la formazione, o agli sviluppatori che hanno speso più di 10 milioni di dollari per mettere a punto i modelli esistenti, lasciando molte piccole aziende tecnologiche nell’ambito dell’attacco.

sb-1047 prevede anche alcune disposizioni irragionevoli. ad esempio, se un'azienda apre il suo modello ad altri paesi per l'uso, deve fornire tutte le informazioni del cliente, inclusa la carta d'identità del cliente, il numero della carta di credito, il numero di conto, ecc.

gli sviluppatori devono inoltre creare procedure di test che affrontino i rischi del modello di intelligenza artificiale e devono assumere annualmente revisori di terze parti per valutare le loro pratiche di sicurezza dell’intelligenza artificiale.

per i prodotti di intelligenza artificiale costruiti sulla base di modelli, è necessario sviluppare protocolli di sicurezza corrispondenti per prevenire gli abusi, incluso un pulsante di “arresto di emergenza” che spenga l’intero modello di intelligenza artificiale.

bill è stato criticato per aver chiuso un occhio sui rischi reali

altri critici ritengono che questo disegno di legge sia troppo infondato.

non solo ostacolerà l’innovazione dell’intelligenza artificiale, ma non aiuterà la sicurezza dell’intelligenza artificiale di oggi.

ciò che è ancora più ironico è che il disegno di legge utilizza un cosiddetto “interruttore di emergenza” per prevenire la fine del mondo, ma chiude un occhio sui rischi per la sicurezza esistenti come i deepfake e le false informazioni.

sebbene gli emendamenti successivi fossero formulati in modo più vago, riducendo il potere del governo della california di ritenere responsabili i laboratori di intelligenza artificiale.

ma anche così, sb-1047 avrà un impatto considerevole sui principali produttori come openai, meta e google.

per alcune start-up questo colpo può essere addirittura devastante.

ora che le acque si sono calmate, sia le grandi aziende che le piccole startup possono tirare un sospiro di sollievo.

il gigante di turing si scioglie

l'sb-1047 causò persino la "scioglimento" dei big three di turing per questo.

i grandi capi rappresentati da lecun, li feifei e ng enda si sono pubblicamente opposti e insoddisfatti molte volte.

lecun ha persino copiato il messaggio originale che ha usato quando ha chiesto una moratoria sulla ricerca sull’ia: per favore, sospendete la legislazione sull’ia per sei mesi!

gli altri due dei tre grandi turing, yoshua bengio e geoffrey hinton, sorprendentemente hanno fortemente sostenuto l’approvazione di questo disegno di legge.

ho anche la sensazione che i termini attuali siano un po’ troppo vaghi.

in qualità di ricercatori senior in materia di tecnologia e politica dell'intelligenza artificiale, scriviamo per esprimere il nostro forte sostegno al disegno di legge 1047 del senato della california.

sb 1047 delinea i requisiti di base per una regolamentazione efficace di questa tecnologia. non implementa un sistema di licenze, non richiede alle aziende di ottenere il permesso dalle agenzie governative prima di addestrare o implementare modelli, fa affidamento sulle aziende per valutare autonomamente i rischi e non ritiene le aziende strettamente responsabili anche in caso di disastro.

si tratta di una legislazione relativamente indulgente rispetto alla portata dei rischi che affrontiamo.

annullare le misure di base del disegno di legge sarebbe un errore storico, che diventerà ancora più evidente tra un anno, quando verrà rilasciata la prossima generazione di sistemi di intelligenza artificiale più potenti.

ma bengio e hinton ovviamente non sono mainstream.

in sintesi, le posizioni dei vari giganti e pezzi grossi della tecnologia sono le seguenti.