Le mie informazioni di contatto
Posta[email protected]
2024-08-19
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Tao Le è originario del Tempio Aofei
Qubit |. Account pubblico QbitAI
Quando verrà implementata l’AGI? GoogleMente Profonda Il CEO Hassabis ha previsto nell’ultima intervista:
dieci anni.
SeAGINon sarei sorpreso se apparisse entro il prossimo decennio.
In questa intervista Hassabis ha parlato delle tendenze di sviluppo dell’IA.
Ci sono alcuni argomenti che interessano tutti, come ad esempio:
L’intelligenza artificiale potrebbe essere sopravvalutata nel breve termine, ma il suo potenziale e il suo impatto rimangono sottostimati nel lungo termine.
In quanto “super team” di Google, Google DeepMind deve trovare un equilibrio tra interessi commerciali e ricerca scientifica.
L'open source è importante per il progresso tecnologico, ma quando ti imbatti in una tecnologia che potrebbe essere utilizzata in modo improprio, potresti voler attendere un anno prima di renderla open source per valutarne e limitarne l'uso improprio.
Per contenuti più specifici, vedere la versione testuale di seguito~
Q: Per l’intervista di oggi ho invitato Hassabis, il co-fondatore di DeepMind e attuale CEO di Google DeepMind.
Hassabi: Grazie, sono molto felice di poter partecipare alla tua intervista. In precedenza abbiamo esaminato come concetti e linguaggio possano essere utilizzati nel mondo reale, ad esempio in ambienti simulati o come robot dotati di intelligenza reale che potrebbe essere necessaria per comprendere il mondo che ci circonda.
Tuttavia, bisogna riconoscere che questi sistemi non sono ancora a quel livello ideale, commettono molti errori e non costruiscono realmente un modello completo del mondo. Tuttavia, hanno fatto progressi ben oltre le nostre aspettative attraverso il solo apprendimento delle lingue.
Q: Sì, abbiamo discusso molto l'ultima volta su come implementare il linguaggio nel mondo reale. Ma puoi spiegare brevemente cosa significa “atterraggio”? Nel caso in cui gli amici che guardano la nostra intervista per la prima volta non capiscano.
Hassabi:"approdo"Questo concetto,Originato dai classici sistemi di intelligenza artificiale costruiti in istituzioni accademiche come il MIT negli anni '80 e '90.La maggior parte di questi sistemi sono enormi sistemi logici, che possono essere immaginati come giganteschi database contenenti molte parole correlate.
Il problema, però, è che sebbene nel database si possano trovare affermazioni come "I cani hanno quattro zampe", quando il sistema si trova di fronte alla foto di un cane vero, non riesce ad associare quei pixel ai simboli presenti nel database. , questo è il cosiddetto "problema dell'atterraggio".
In altre parole, il sistema ha rappresentazioni simboliche o astratte ma non riesce a comprendere il significato concreto di queste rappresentazioni nel mondo reale. Da allora, anche se le persone hanno cercato di risolvere questo problema, non sono mai riuscite a raggiungere la perfezione.
A differenza dei sistemi del passato, i sistemi di intelligenza artificiale di oggi apprendono direttamente dai dati e stabiliscono connessioni tra i dati e il mondo reale fin dall’inizio.
È interessante notare che, anche se questi sistemi inizialmente apprendono solo in base al linguaggio, in teoria dovrebbero mancare molte informazioni necessarie per "decollare" perché non sono collegati a simulatori del mondo reale, robot o altre forme di input, ma solo È imparare nello spazio linguistico.
Sorprendentemente, tuttavia, questi sistemi sono ancora in grado di dedurre una certa conoscenza del mondo reale.
Q: Ciò può essere dovuto al fatto che, quando le persone interagiscono con il sistema, dicono al sistema quali risposte sono corrette e quali sono errate. Attraverso il feedback in questo modo, il sistema può ricevere parte delle informazioni di "atterraggio", stabilendo così gradualmente una connessione con il mondo reale.
Hassabi: In effetti, se il sistema nelle versioni precedenti fornisse risposte errate a causa della mancanza di informazioni di "atterraggio", ad esempio rispondendo erroneamente a una domanda come "Come abbaia un cane?", il feedback delle persone lo correggerebbe.
Questo feedback si basa sulla nostra conoscenza "implementata", quindi, in una certa misura,Il sistema assorbe e apprende le informazioni da questo feedback.
Q: Inoltre, voglio chiederti anche dell'hype sull'intelligenza artificiale. Pensi che la nostra situazione attuale, la situazione attuale, sia sottostimata o sovrastimata?
Hassabi: Penso che sia più la seconda. Voglio dire,Nel breve termine, l’hype è andato troppo oltre.
Penso che la gente dica che l'intelligenza artificiale può fare ogni genere di cose, ma in realtà non è così potente come dice. Ci sono molte startup e VC che inseguono idee irrealistiche e non molto mature.
Ma d'altra parte, penso che anche adesso sia ancora sottovalutato, o non gli venga prestata abbastanza attenzione. Soprattutto quando arriviamo alle fasi AGI e post-AGI, ho ancora la sensazione che le persone non comprendano appieno quale grande cambiamento sarà questo e le responsabilità che ne deriveranno.
COSÌ,Penso che a breve termine sia decisamente sopravvalutato, ma a lungo termine è ancora sottovalutato.
Q: Ok, ora voglio porre una domanda più importante in questa intervista. Quale pensi sia la differenza tra Gemini e i grandi modelli linguistici rilasciati da altri laboratori?
Hassabi: Abbiamo fissato un obiettivo fin dall'inizio del progetto Gemini, ovvero consentirgli di gestire più tipi di dati contemporaneamente. Ci auguriamo che possa non solo comprendere il testo, ma anche analizzare suoni, video, immagini, codici, ecc., praticamente tutte le forme di informazione.
Crediamo fermamente che solo consentendo ai sistemi di comprendere ed elaborare varie informazioni nel mondo reale, essi potranno veramente comprendere il mondo e costruire un modello mondiale più accurato e completo.
Questa è in realtà un'estensione del problema dell'"atterraggio" menzionato sopra, ma questa volta utilizziamo il linguaggio come base per raggiungere questo obiettivo.
Q: Quindi "l'implementazione" è ancora la chiave dell'intero progetto?
Hassabi: In effetti, questo è cruciale.
Abbiamo anche un obiettivo finale, che èCrea un assistente a tutto tondo. Abbiamo sviluppato uno strumento chiamatoAstroPrototipo del progetto, Astro non solo comprende i tuoi input, ma rileva anche il contesto del tuo ambiente.
Immagina quanto più potente sarebbe il tuo assistente personale o digitale se avesse una comprensione più profonda del contesto della tua domanda o della situazione in cui ti trovi. Pertanto, crediamo sempre fermamente che questo tipo di sistema sarà più pratico.
Per fare ciò, abbiamo integrato funzionalità multimodali nel sistema fin dall’inizio del progetto. All'epoca, questo era l'unico modello con questa funzionalità e ora altri modelli stanno cercando di recuperare terreno.
Q:Project Astro è un agente AI emergente per scopi generici in grado di elaborare dati video e audio.Ricordo che alla conferenza Google I/O hai mostrato un esempio di come Astro aiuta gli utenti a ricordare dove sono i loro occhiali. Mi interessano le origini di questa tecnologia. È solo un'evoluzione avanzata dei vecchi Google Glass?
Hassabi: Google ha una lunga storia nello sviluppo di dispositivi basati sugli occhiali, essendo stato coinvolto già intorno al 2012. Pertanto, hanno un vantaggio significativo in questo settore. Può darsi che mancasse la tecnologia necessaria affinché l’assistente intelligente capisse cosa stava vedendo. Ma ora,Con questo assistente digitale al tuo fianco, può capire il mondo che ti circonda, sembra molto naturale.
Q: Voglio risalire alle origini di Gemini perché ha avuto origine da due dipartimenti separati all'interno dell'organizzazione ed è stato realizzato da loro?
Hassabi: Infatti, l'anno scorso abbiamo inserito Alphabet(Società madre di Google)I due dipartimenti di ricerca dell'originaleMente ProfondaECervello di Google, confluito in un nuovo dipartimento, lo chiamiamo"Super Dipartimento"。
In questo modo tutti i migliori talenti dell'azienda sono riuniti in un unico team e combiniamo le migliori conoscenze di tutti gli ambiti di ricerca, in particolare dei modelli linguistici.
Abbiamo avuto alcuni progetti precedenti, come Trin Chilla e Gopher, che hanno tutti partecipato allo sviluppo dei primi modelli linguistici, come Palm e Lambda. Ognuno di questi modelli ha i propri punti di forza e di debolezza e noi li abbiamo integrati nel progetto Gemini, che è il primo progetto molto importante dopo la fusione.
Inoltre c’è un altro punto particolarmente importante: noiIntegra tutte le risorse informatiche insieme. In questo modo possiamo condurre corsi di formazione su larga scala, che riuniscono effettivamente tutta la potenza di calcolo,Rendi Gemini più potente ed efficiente。
Questi due team si sono sempre concentrati sull'avanguardia dell'intelligenza artificiale. Hanno già collaborato molto sulla ricerca personale, ma potrebbero non essere così vicini strategicamente. Ora, il team combinato, lo descriverei come quello di Google"Sala macchine"。
Penso che i metodi di lavoro dei due team siano in realtà abbastanza simili, senza grandi differenze. Successivamente, continueremo a rafforzare i nostri vantaggi nella ricerca di base, ad esempio pensando al prossimoTrasformatoreCome sarà l'architettura, vogliamo tutti capirlo da soli.
A proposito, il precedente Transformer è stato creato da Google Brain e lo abbiamo combinato con il Deep Reinforcement Learning, ma penso che sia necessaria più innovazione. Credo che, proprio come negli ultimi 10 anni, che si tratti di Brain o DeepMind, continueremo a dare il nostro contributo.
Q: Hai appena detto che Google DeepMind è ora la "sala macchine" di Google. Questo è un grande cambiamento. Voglio sapere se Google sta scommettendo molto su di te adesso?
Hassabi: Credo di si. Penso che Google sia sempre stata chiara sull’importanza dell’intelligenza artificiale. Pichai ha detto quando è diventato CEO per la prima volta,Google è un’azienda “AI-first”.。
Abbiamo discusso di questo argomento quando è entrato in carica per la prima volta. Ha visto il potenziale dell’intelligenza artificiale come il prossimo grande cambiamento di paradigma dopo l’Internet mobile, e il suo impatto è stato ancora più profondo di questi.
Ma penso che negli ultimi due anni abbiamo iniziato a capire veramente cosa significa, non solo dal punto di vista della ricerca ma anche da quello del prodotto e di tutto il resto. Quindi è un momento molto emozionante, ma penso che sia la scelta giusta per noi riunire tutti i talenti e dare il massimo.
Q: Da un'altra prospettiva, per DeepMind, diventata ormai la "sala macchine" di Google, significa che bisogna trovare più equilibrio tra considerare gli interessi commerciali e la pura ricerca scientifica?
Hassabi: In effetti, ora dobbiamo considerare maggiormente gli interessi commerciali, il che è diventato parte delle nostre responsabilità. Tuttavia, ci sono ancora alcuni punti da chiarire. Continueremo a portare avanti il nostro lavoro di ricerca scientifica e i nostri investimenti in questo settore sono ancora in aumento.
Penso,Questa è una cosa unica che facciamo in Google DeepMind, anche i nostri concorrenti vedono questi risultati come vantaggi diffusi dell’intelligenza artificiale.
Q: Ok, questo mi porta alla mia prossima domanda: open source. Quando la tecnologia finisce nelle mani delle masse, come hai detto tu, possono accadere cose davvero sorprendenti. So che DeepMind ha reso open source molti progetti di ricerca in passato, ma ora sembra che le cose siano cambiate. Puoi parlare del tuo punto di vista sull'open source?
Hassabi:L’open source è necessario e noi siamo sempre stati un forte sostenitore dell’open source e dell’open science.Come sai, pubblichiamo quasi tutti i progetti di ricerca che svolgiamo, inclusi progetti come Transformer eAlfaGoAbbiamo pubblicato progetti come questo su riviste importanti come Nature e Science.
AlphaFold è anche open source, questi sono tutti realizzati da noiScegli saggiamente. Hai ragione, questo approccio funziona perché la tecnologia e la scienza possono avanzare alla massima velocità condividendo le informazioni. Nella maggior parte dei casi,L’open source è universalmente vantaggioso, ed è così che funziona la scienza。
Ci sono però delle eccezioni, e questo accade quando si tratta di tecnologie a duplice scopo, come l’AGI e la potente intelligenza artificiale.
Il problema è che si vuole essere in grado di abilitare tutti i casi d’uso benigni e si vuole che i veri scienziati e tecnologi siano in grado di basarsi e criticare queste idee per guidare un rapido progresso nella società. Ma allo stesso tempo, questa è la domanda: come limitare i cattivi attori che potrebbero abusare di questi sistemi.
Adesso va bene perché non penso che questi sistemi siano abbastanza potenti, ma tra due o tre anni, soprattutto quando inizierai ad avere sistemi che hanno un comportamento agente, potrebbero causare seri danni.
Abbiamo i nostri modelli Gemini open source chiamati Gemma, ma sono modelli più piccoli e non all'avanguardia.
Le loro funzionalità sono ancora molto utili agli sviluppatori perché possono essere eseguite su laptop e perché hanno un numero inferiore di parametri. Le loro capacità sono ben comprese in questa fase, poiché non si tratta degli ultimi modelli all’avanguardia.
Probabilmente ciò che finiremo per fare è avere modelli open source, ma saranno circa un anno indietro rispetto agli ultimi modelli all'avanguardia in modo da poter davvero valutare le capacità di tali modelli nei test pubblici con gli utenti.
Un problema con l'open source è che se qualcosa va storto, non puoi richiamarlo. Con un modello proprietario, se i malintenzionati iniziano a utilizzarlo in modo scorretto, è possibile spegnerlo o addirittura arrestare l’intero sistema in casi estremi. Ma una volta reso open source qualcosa, non puoi riprenderlo. È una porta a senso unico.
Q: Al giorno d'oggi, vari modelli di intelligenza artificiale vengono sviluppati da ricercatori scientifici, ma voglio sapere, se entriamo nella fase in cui l'intelligenza artificiale supporta tutta la ricerca scientifica, ci sarà ancora spazio per l'esistenza di istituzioni di ricerca e sviluppo?
Hassabi: Penso che ci sia ancora spazio. Ora siamo nella fase precedente all’emergere dell’AGI generale. Penso che ciò richieda una stretta cooperazione tra società, mondo accademico, governo e laboratori industriali.
Credo davvero che questo sia l’unico modo in cui alla fine arriveremo a destinazione. Se stai chiedendo cosa succederà dopo l'AGI, probabilmente è quello che vuoi veramente sapere. L'AGI è sempre stata qualcosa che aspiro a costruire perché possiamo usarla per esplorare alcune delle domande più fondamentali sulla natura della realtà, della fisica, della coscienza e altro ancora.
Q: L'informatico Stuart Russell una volta mi disse che era un po' preoccupato che una volta arrivati all'AGI, potremmo essere tutti come gli aristocratici del passato, godendoci solo una vita spensierata e lussuosa, senza obiettivi e senza pensieri.
Hassabi: Penso che il futuro sarà molto interessante. Ma si entra anche in quella questione di “sottovalutazione” di cui ho parlato prima, che è la differenza tra l’hype a breve e quello a lungo termine. Se vuoi chiamarlo hype, è sicuramente sottovalutato in una certa misura.
Penso che il cambiamento in futuro sarà enorme. Credo che alla fine potremo farloCurare molte malattie, anche tutte le malattie, risolvere i problemi energetici e quelli climatici.
Q: A proposito, ricordo che una volta hai detto che speri che l'AGI possa esplorare i misteri dell'universo. Pensi che ci siano alcune possibilità che non abbiamo ancora immaginato, come fenomeni come i wormhole?
Hassabi:certamente,Credo pienamente in questa possibilità. Spero davvero che i wormhole diventino realtà. Mi sembra che abbiamo ancora molti malintesi sulla fisica e sulla natura della realtà.
Ovviamente, ci sono innumerevoli misteri irrisolti nascosti nell’unificazione della meccanica quantistica e della gravità, problemi nel Modello Standard, teoria delle stringhe, ecc. Ho avuto discussioni approfondite con molti amici nella comunità dei fisici, e tutti credono che ci siano molte cose nel quadro teorico esistente che non si incastrano perfettamente.
Personalmente non sono un grande fan delle spiegazioni del multiverso, quindi penso che sarebbe fantastico se potessimo elaborare nuove teorie e testarle con apparecchiature su larga scala nello spazio.
Il motivo per cui sono così affascinato dalla scala del tempo e dello spazio di Planck è che sembra rappresentare la risoluzione ultima della realtà, come la più piccola unità in cui tutto può essere suddiviso.
Pertanto, penso che dovremmo condurre un’esplorazione sperimentale approfondita a questo livello, soprattutto quando lo abbiamoCon l’AGI e risorse abbondanti, forse possiamo progettare o costruire tali apparecchiature sperimentali.
Q: Una volta hai detto che DeepMind è un progetto di 20 anni A che punto siamo arrivati adesso? Stai ancora procedendo come previsto?
Hassabi: Sì, siamo ancora nei tempi previsti, il che può sembrare incredibile perché di solito un progetto di 20 anni sembra sempre che ci vorranno altri 20 anni per essere completato. Ma abbiamo fatto molta strada.
Il nostro obiettivo è realizzarlo entro il 2030, quindi non sarei sorpreso se riuscissimo ad arrivarci entro il prossimo decennio.
Indirizzo del video: https://www.youtube.com/watch?v=pZybROKrj2Q *