notizia

Il "Padrino dell'IA" Bengio ha affermato: Gli esseri umani potrebbero non essere in grado di risolvere i rischi dell'IA e i problemi di supervisione delle politiche in 10 anni

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Novità sull'app Titanium Media del 24 agostoYoshua Bengio, informatico canadese noto come il "Padrino dell'intelligenza artificiale", pioniere della tecnologia di deep learning e vincitore del Premio Turing 2018, ha dichiarato pubblicamente che con il lancio di ChatGPT, i tempi per i rischi della tecnologia AI sono stati compressi .Sfortunatamente, non possiamo impiegare dieci anni per risolvere i problemi relativi ai rischi legati all’IA e alla supervisione delle politiche, ma un tempo più breve, quindi l’industria deve agire ora per accelerare l’attuazione delle politiche di sicurezza dell’IA.

"Ci vuole molto tempo per creare una politica, ci vogliono anni di disaccordi per essere risolti, una legislazione come questa richiede anni per essere promulgata, ci sono processi che devono essere messi in atto, ci vogliono anni per farlo davvero nel modo giusto", Bengio ha detto a Bloomberg. Ora preoccupatevi che potrebbe non esserci molto tempo per “fare le cose per bene”.E quel che è peggio è che i rischi legati all’intelligenza artificiale non sono solo una questione normativa, ma un trattato internazionale, e dobbiamo risolvere questo problema su scala globale.

È stato riferito che Bengio è nato a Parigi ed è cresciuto in Canada. Ora vive a Montreal, in Canada, e lavora come professore presso il Dipartimento di Informatica e Informatica dell'Università di Montreal. Ha conseguito il dottorato in Informatica presso la McGill University in Canada nel 1991. Le principali aree di ricerca di Bengio sono l'apprendimento profondo e l'elaborazione del linguaggio naturale.

Nei suoi oltre 30 anni di carriera nella ricerca sul deep learning, Bengio ha pubblicato più di 300 articoli accademici ed è stato citato più di 138.000 volte. Ng Enda una volta disse che i numerosi studi teorici di Bengio lo hanno molto ispirato.

Nel 2018, lui, il "padre delle reti neurali" Geoffrey Hinton e il "padre delle reti convoluzionali" Yann LeCun hanno vinto il "Premio Turing" per aver aperto la strada alla teoria della tecnologia di apprendimento profondo. Tutti e tre sono anche chiamati "AI". l'industria dell'intelligenza artificiale. "I tre grandi", "I tre grandi del deep learning", "I tre padrini dell'intelligenza artificiale".

Bengio, uno dei "tre giganti del deep learning", una volta ha sottolineato che si abusa del termine AI. Alcune aziende hanno antropomorfizzato i sistemi di intelligenza artificiale, come se il sistema di intelligenza artificiale fosse un'entità intelligente equivalente agli esseri umani infatti, non esiste ancora un'entità intelligente paragonabile all'intelligenza umana. Ovviamente ama ancora l’intelligenza artificiale come tecnologia.

Bengio ha affermato che prima dell’avvento di ChatGPT alla fine del 2022, credeva che i reali rischi dell’IA non sarebbero comparsi per almeno decenni. C’è stato un tempo in cui non era molto preoccupato per i problemi di sicurezza dell’IA e credeva che gli esseri umani fossero lontani dallo sviluppo di una tecnologia che potrebbe competere con gli esseri umani. Sebbene la tecnologia dell’intelligenza artificiale sia ancora “a decenni di distanza”, presuppone che possiamo “raccogliere i benefici dell’intelligenza artificiale” per anni prima di affrontarne i rischi.

Ma ora, il lancio di ChatGPT gli ha completamente fatto cambiare idea. Non ne era più così sicuro. Le sue ipotesi sulla velocità dello sviluppo dell’intelligenza artificiale e sulle potenziali minacce che la tecnologia pone alla societàÈ stato sovvertito dopo che OpenAI ha rilasciato ChatGPT alla fine del 2022, perché è arrivata la tecnologia AI a livello umano.

“Ho cambiato completamente idea da quando finalmente abbiamo macchine in grado di parlare con noi (ChatGPT)”, ha detto Bengio. “Adesso abbiamo macchine IA in grado di comprendere il linguaggio. Non ci aspettavamo che ciò accadesse così presto. Non penso che nessuno se lo aspettasse davvero, anche le persone che costruiscono questi sistemi. Potete vedere che le persone pensavano che sarebbero potuti passare anni, decenni o anche di più prima di raggiungere l'intelligenza di livello umano. A livello di intelligenza, è difficile prevedere cosa accadrà, se ci ritroveremo con qualcosa di veramente, davvero buono o qualcosa di veramente, davvero brutto, e come risponderemo a ciò. Questo è ciò che guida il mio attuale lavoro nel campo della scienza e della politica. "

Dopo che ChatGPT ha innescato una discussione globale sui rischi dell'intelligenza artificiale, Bengio ha iniziato a dedicare più energie alla difesa della regolamentazione dell'intelligenza artificiale e, insieme al collega accademico e pioniere dell'intelligenza artificiale Geoffrey Hinton, ha sostenuto pubblicamente un controverso disegno di legge sulla sicurezza dell'intelligenza artificiale della California SB1047, che il disegno di legge avrebbe rendere le aziende responsabili dei danni catastrofici causati dai loro modelli di intelligenza artificiale senza prendere precauzioni di sicurezza.

Bengio ritiene che questa sia la “seconda proposta più importante sul tavolo”, seconda solo alla legge sull’intelligenza artificiale dell’UE.

Il 15 agosto, ora locale, il controverso Frontier AI Model Safety Innovation Act della California (in seguito noto come California AI Safety Act SB 1047) ha finalmente superato la revisione del Comitato per gli stanziamenti della Camera dei rappresentanti della California dopo aver indebolito in modo significativo le disposizioni pertinenti.

L’SB 1047 mira a prevenire incidenti di sicurezza informatica in cui sistemi di intelligenza artificiale su larga scala uccidono un gran numero di persone o causano perdite superiori a 500 milioni di dollari, ritenendo gli sviluppatori responsabili. Dopo aver superato con successo la revisione, ciò significa che il disegno di legge ha compiuto un passo importante verso il divenire una legge e un regolamento formale, ed è anche un passo importante nella supervisione dell’IA negli Stati Uniti.

Tuttavia, il California AI Safety Act è stato controverso. Il professore dell'Università di Stanford Li Feifei, lo scienziato capo di Meta Yang Likun e altri credono che il disegno di legge alla fine danneggerà la posizione leader della California e degli Stati Uniti nel campo dell'intelligenza artificiale. Oltre 100 accademici hanno pubblicato articoli contro il capitale di rischio l'istituzione a16z ha creato un sito web per dettagliare i sei casi del crimine di legge.

Anche l'ex presidente della Camera degli Stati Uniti Nancy Pelosi ha rilasciato una dichiarazione contraria a questo disegno di legge, ritenendo che il disegno di legge sulla sicurezza dell'intelligenza artificiale della California abbia buone intenzioni ma manchi di piena comprensione. Molti importanti studiosi e leader di aziende tecnologiche californiane hanno espresso opposizione al disegno di legge Bene.

L’ultimo ad opporsi alla legge sull’intelligenza artificiale della California è OpenAI. OpenAI ha pubblicato questa settimana un documento in cui afferma che la legislazione danneggerà l'innovazione dell'intelligenza artificiale e potrebbe avere un impatto "ampio e significativo" sulla competitività degli Stati Uniti nell'intelligenza artificiale e sulla sicurezza nazionale.

Bengio, tuttavia, ha affermato che il California AI Safety Act evita di essere eccessivamente prescrittivo e utilizza invece la responsabilità per garantire che le società di intelligenza artificiale non ignorino le precauzioni di sicurezza "che farebbe un esperto ragionevole". "Creerà un incentivo per le aziende in modo che non diventino gli studenti peggiori della classe."

Bengio ha osservato che le discussioni sulla regolamentazione dell’intelligenza artificiale potrebbero essere influenzate da venture capitalist e aziende che cercano di trarre profitto dalla tecnologia. “Si possono tracciare analogie con il cambiamento climatico, le aziende produttrici di combustibili fossili e così via”, ha affermato.

"Non è questo, è esattamente il contrario. Non è così vincolante. Non esercita molta influenza. Dice solo: se causi miliardi di dollari di danni, sei responsabile. Per decenni, l'intero calcolo Il campo è stato in qualche modo non regolamentato di alcun tipo. Penso che (l'opposizione) sia più ideologica. Sono davvero preoccupato per il potere della lobby e per i trilioni e persino i quadrilioni che Ai profitti porteranno (ha detto Stuart Russell, professore presso dell'Università della California, Berkeley e fondatore del Center for Artificial Intelligence Systems) motiverà le aziende a opporsi a qualsiasi regolamentazione", ha affermato Bengio.

Quando si tratta di gestione del rischio, Bengio ha osservato: “Mi considero scettico riguardo al rischio, ho sentito molte buone argomentazioni secondo cui l’intelligenza artificiale più intelligente di noi potrebbe essere molto pericolosa, anche prima che lo sia utilizzati dagli esseri umani in modi estremamente pericolosi per la democrazia. Chiunque affermi di sapere è troppo sicuro di sé perché, in effetti, la scienza non ha modo di rispondere in modo verificabile. Le argomentazioni sono tutte valide e se pensi alla politica, devi proteggere il pubblico da cose davvero brutte. Questo è ciò che il governo ha fatto in tanti altri settori. Non possono farlo nell'informatica e nell'intelligenza artificiale.

Bengio ha ripetutamente sottolineato che non si aspettava che gli esseri umani padroneggiassero così rapidamente la tecnologia vocale dell'intelligenza artificiale conversazionale e che almeno avesse raggiunto un livello sufficientemente umano.

"Penso che il desiderio di innovare rapidamente su cose pericolose non sia saggio. In biologia, quando i ricercatori hanno scoperto che i virus pericolosi potevano essere creati attraverso la cosiddetta ricerca con guadagno di funzione, hanno deciso collettivamente, beh, non l'abbiamo fatto. chiedi al governo di stabilire delle regole in modo che se fai questo, almeno se non è controllato, vai in prigione", ha detto Bengio. "Sono sicuro che conosci la pornografia infantile sintetica, forse non a livello emotivo. Quindi è impegnativo, ma di più È importante sottolineare che gli stessi deepfake distorceranno la società. I ​​video non potranno che migliorare: la capacità dei sistemi attuali e futuri di persuadere le persone a cambiare idea Solo pochi mesi fa , un nuovo studio svizzero ha confrontato GPT-4 con gli esseri umani per vedere chi poteva convincere le persone che chiaramente non ne avevano idea. La persona che sta parlando con un essere umano o una macchina cambia idea su qualcosa.

Bengio ha osservato che “dovremmo adottare un comportamento simile basato sul principio di precauzione quando si tratta di intelligenza artificiale”.

Guardando al futuro,Bengio ha sottolineato,Tutte le applicazioni della tecnologia AI continueranno a cambiare gli stili di vita umani in modo sano.Ad esempio, in termini di biologia, l’intelligenza artificiale capirà come funziona il corpo e come funziona ogni cellula, il che potrebbe rivoluzionare campi come la medicina e la ricerca e lo sviluppo di farmaci in termini di clima, può aiutare a creare batterie migliori, una migliore cattura del carbonio, ecc. e un migliore accumulo di energia.

"Non sta ancora accadendo, ma penso che questi siano ottimi prodotti tecnologici che possiamo realizzare con l'intelligenza artificiale. E, a proposito, queste applicazioni, la maggior parte di esse non sono pericolose. Quindi dovremmo guardare a queste cose che possono ovviamente aiutare la società investendo di più per affrontare le sfide”, ha detto Bengio al termine della conversazione.