le mie informazioni di contatto
posta[email protected]
2024-10-01
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
rapporto sul cuore della macchina
editore: zhang qian
l’intenzione originale è buona, ma l’approccio è ancora discutibile.
proprio adesso la sb 1047, di cui si discute da più di sei mesi, è finalmente giunta al termine: il governatore della california gavin newsom ha posto il veto alla legge.
il nome completo di sb 1047 è "safe and secure innovation for frontier artificial intelligence act", che mira a stabilire standard di sicurezza chiari per i modelli di intelligenza artificiale ad alto rischio per evitare che subiscano abusi o causino catastrofi.
nello specifico, il disegno di legge cerca di regolamentare l’intelligenza artificiale a livello di modello, applicandosi a modelli addestrati al di sopra di determinate soglie computazionali e di costo. tuttavia, se calcolati rigorosamente secondo le soglie di calcolo e di costo prescritte, tutti i modelli tradizionali su larga scala presenti sul mercato saranno considerati “potenzialmente pericolosi”. inoltre, il disegno di legge richiede che la società di sviluppo dietro il modello si assuma la responsabilità legale per l'uso a valle o la modifica del suo modello, che si ritiene abbia un "effetto dissuasivo" sul rilascio di modelli open source.
link alla fattura: https://leginfo.legislature.ca.gov/faces/billtextclient.xhtml?bill_id=202320240sb1047
il disegno di legge è stato emanato nel febbraio di quest’annosenatoè stato proposto e da allora è stato controverso. li feifei, yann lecun,andrea ngtutti sono contrari. qualche tempo fa, li feifei ha scritto personalmente un articolo in cui spiegava i numerosi effetti negativi che il disegno di legge potrebbe comportare. anche dozzine di insegnanti e studenti dell'università della california hanno firmato una lettera congiunta per opporsi a questo disegno di legge (vedi "li feifei ha scritto personalmente un articolo e dozzine di scienziati hanno firmato una lettera congiunta per opporsi al disegno di legge sulla restrizione dell'intelligenza artificiale della california"). tuttavia, ci sono anche molte persone che sostengono il disegno di legge, come musk, hinton e bengio. prima che il disegno di legge fosse presentato al governatore della california, ci furono molti accesi dibattiti tra i due partiti.
ora, tutto è sistemato. nella sua dichiarazione di veto, il governatore newsom ha citato molteplici fattori che hanno influenzato la sua decisione, compreso l’impatto che il disegno di legge avrebbe avutoail’onere per le aziende, la leadership della california nel settore e le critiche secondo cui il disegno di legge potrebbe essere troppo ampio.
dopo la diffusione della notizia, yann lecun ha espresso la sua gratitudine al governatore della california a nome della comunità open source.
ng ha affermato gli sforzi di yann lecun per spiegare al pubblico le carenze del disegno di legge.
alcuni però sono contenti, altri preoccupati: il senatore della california scott wiener, promotore del disegno di legge, si è detto molto deluso dai risultati. ha scritto in un post che il veto "è una battuta d'arresto per chiunque creda che ci sarà una supervisione delle grandi aziende che stanno prendendo decisioni critiche che hanno un impatto sulla sicurezza pubblica, sul benessere e sul 'futuro del nostro pianeta'".
va notato che il rifiuto dell’sb 1047 non significa che la california stia chiudendo un occhio sulle questioni di sicurezza dell’ia, come ha affermato il governatore newsom nella sua dichiarazione. allo stesso tempo, ha anche annunciato che li feifei e altri aiuteranno a guidare la california nella formulazione di misure di protezione responsabili per l’impiego dell’intelligenza artificiale generativa.
governatore della california: sb 1047 ha molti problemi
per quanto riguarda l'sb 1047, il governatore della california newsom ha l'ultima parola. perché dovrebbe porre il veto al disegno di legge? una dichiarazione ha fornito la risposta.
link alla dichiarazione: https://www.gov.ca.gov/wp-content/uploads/2024/09/sb-1047-veto-message.pdf
un estratto della dichiarazione è il seguente:
la california ospita 32 delle 50 principali aziende mondiali di intelligenza artificiale, pioniere di importanti progressi tecnologici nella storia moderna. siamo leader in questo campo grazie ai nostri istituti di ricerca e formazione, alla nostra forza lavoro diversificata e motivata e alla nostra coltivazione spensierata di idee libere. in qualità di futuro manager e innovatore, mi assumo la responsabilità di regolamentare seriamente questo settore.
sb 1047 esagera la discussione sulle possibili minacce poste dallo spiegamento di al. il punto cruciale del dibattito è se la soglia per la regolamentazione debba essere basata sul costo e sul numero di calcoli necessari per sviluppare un modello di ia, o se il rischio effettivo del sistema debba essere valutato senza tenere conto di questi fattori. questa discussione globale arriva mentre le capacità di al continuano ad espandersi a un ritmo allarmante. allo stesso tempo, le strategie e le soluzioni per affrontare il rischio di eventi catastrofici si stanno evolvendo rapidamente.
concentrandosi solo sui modelli più costosi e più grandi, sb 1047 crea un quadro normativo che potrebbe dare al pubblico un falso senso di sicurezza sul controllo di questa tecnologia in rapida evoluzione. i modelli più piccoli e specializzati possono essere altrettanto pericolosi, o addirittura più pericolosi, dei modelli presi di mira da sb 1047.
l’adattabilità è fondamentale nella corsa contro il tempo per regolamentare una tecnologia che è ancora agli inizi. ciò richiede un delicato equilibrio. sebbene l’sb 1047 abbia buone intenzioni, non tiene conto se i sistemi di intelligenza artificiale siano utilizzati in ambienti ad alto rischio, coinvolgano decisioni critiche o utilizzino dati sensibili. invece, il disegno di legge impone standard rigorosi anche sulle funzioni più basilari, purché siano implementate in sistemi di grandi dimensioni. non penso che questo sia il modo migliore per proteggere il pubblico dalle reali minacce di questa tecnologia.
sono d'accordo con l'autore che non possiamo aspettare che si verifichi un grave disastro per agire per proteggere il pubblico. la california non abdicherà alle sue responsabilità. devono essere adottati protocolli di sicurezza. dovrebbero essere implementate tutele proattive e devono esserci conseguenze chiare e applicabili per i malintenzionati. ciò su cui non sono d’accordo, tuttavia, è che, per mantenere il pubblico al sicuro, dobbiamo accontentarci di una soluzione senza un’analisi empirica della traiettoria dei sistemi e delle capacità dell’ia. in definitiva, qualsiasi quadro che regoli efficacemente l’intelligenza artificiale deve tenere il passo con la tecnologia stessa.
non sono d’accordo con coloro che sostengono che non stiamo risolvendo il problema o che la california non ha alcun ruolo nel regolare il potenziale impatto di questa tecnologia sulla sicurezza nazionale. adottare questo approccio solo in california può avere senso, soprattutto in assenza di un’azione federale da parte del congresso, ma deve basarsi su prove empiriche e scientifiche.
l’ai safety institute statunitense, parte del national institute of science and technology, sta sviluppando una guida nazionale sui rischi per la sicurezza basata su metodi basati sull’evidenza per proteggersi da rischi evidenti per la sicurezza pubblica.
in conformità a un ordine esecutivo che ho emesso nel settembre 2023, le agenzie della mia amministrazione stanno conducendo analisi dei rischi di potenziali minacce e vulnerabilità all’uso dell’intelligenza artificiale nelle infrastrutture critiche della california.
questi sono solo alcuni esempi del lavoro che stiamo svolgendo, sotto la guida di esperti, per introdurre ai policy maker pratiche di gestione del rischio legate all’intelligenza artificiale che siano radicate nella scienza e nei fatti.
grazie a questi sforzi, negli ultimi 30 giorni ho firmato più di una dozzina di progetti di legge per regolamentare i rischi specifici e noti posti dall’intelligenza artificiale.
più di una dozzina di progetti di legge firmati in 30 giorni, l’intensa iniziativa della california sulla sicurezza dell’intelligenza artificiale
nella dichiarazione, newsom ha affermato di aver firmato più di una dozzina di fatture in 30 giorni. questi progetti di legge coprono un’ampia gamma di argomenti, tra cui la repressione dei contenuti espliciti deepfake, la richiesta di aggiunta di filigrane ai contenuti generati dall’intelligenza artificiale, la protezione dei ritratti digitali degli artisti, il copyright delle voci o delle sembianze di personaggi deceduti, la privacy dei consumatori e l’esplorazione del diritto d’autore. impatto dell’integrazione dell’intelligenza artificiale nell’insegnamento e molti altri aspetti.
link all'elenco delle fatture: https://www.gov.ca.gov/2024/09/29/governor-newsom-announces-new-initiatives-to-advance-safe-and-responsible-ai-protect-californians/
in risposta alla mancanza di analisi scientifica nella valutazione dei rischi dell’intelligenza artificiale effettuata dall’sb 1047, il governatore ha annunciato di aver chiesto ai principali esperti mondiali di intelligenza artificiale generativa di aiutare la california a sviluppare barriere realizzabili per l’implementazione dell’intelligenza artificiale generativa.
oltre a li feifei, tino cuéllar, membro del comitato sull'impatto sociale ed etico della ricerca informatica dell'accademia nazionale delle scienze, e jennifer tour chayes, preside della school of computing, data science and society dell'università della california, berkeley, sono anche membri del programma.
il loro lavoro si concentra sull’analisi empirica e scientifica della traiettoria di modelli all’avanguardia, delle loro capacità e dei rischi connessi. questo lavoro ha ancora molta strada da fare.
参考链接:https://www.gov.ca.gov/2024/09/29/governor-newsom-announces-new-initiatives-to-advance-safe-and-responsible-ai-protect-californians/