notizia

dopo che google ha lavorato per 7 anni al progetto dello sbarco sulla luna e ha fallito, il ceo di alphabet: le macchine devono essere come gli esseri umani?

2024-09-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

hans peter brondmo, ex amministratore delegato di alphabet. nel 2016 è entrato in google ed è stato responsabile dello sviluppo dei robot. a quel tempo, le cose più popolari erano i social media e internet mobile. l’intelligenza incarnata era come un castello in aria: tutti lo desideravano, ma era troppo lontano.

anche lo stesso brondmo, al momento del suo ingresso, il compito non era un grande progetto, ma perché google aveva acquisito una dopo l'altra 9 aziende di robotica e lui doveva organizzare il personale e la tecnologia di queste aziende.

questi ingegneri robotici furono infine integrati nel laboratorio di google x, noto come "moon landing factory".

la "moon landing factory" è stata profondamente coinvolta nel campo della robotica per sette anni. successivamente, con l'emergere di grandi modelli linguistici, il futuro dell'intelligenza incarnata non è mai stato così brillante. tuttavia, google ha deciso di chiudere il progetto everyday robots , che riponeva grandi speranze in questo laboratorio.

recentemente, brondmo ha scritto un lungo articolo per la rivista "wired", ripercorrendo il suo viaggio in google e una domanda su cui rifletteva da molto tempo: le macchine devono essere come le "persone"?

quello che segue è il file readme di brondmo, compilato e abbreviato.

i robot sono difficili, difficili da "atterrare sulla luna"

google

il

ci impegniamo molto per incoraggiare i nostri membri a correre rischi, sperimentare rapidamente e persino "celebrare il fallimento" perchéil fallimento significa semplicemente che gli obiettivi che ci poniamo sono estremamente elevati.

quando sono entrato, il laboratorio stava già incubando waymo, google glass e altri progetti che sembravano fantascienza, come mulini a vento energetici volanti e palloncini che avrebbero raggiunto la stratosfera per portare internet nelle aree sottoservite.

ciò che differenzia project x dalle altre startup della silicon valley è che i membri x sono incoraggiati a pensare in grande e a lungo termine. infatti, affinché un progetto possa essere considerato un moonshot, x ha una serie di "formule" per giudicarlo.

innanzitutto, il progetto deve dimostrare che il problema che risolve riguarda centinaia di milioni o addirittura miliardi di persone. in secondo luogo, deve esserci una tecnologia rivoluzionaria che ci offra nuovi modi per risolvere i problemi. infine, è necessaria una soluzione aziendale o di prodotto radicale che possa sembrare al limite della follia, ma non del tutto irrealizzabile.

dai un "corpo" all'ia

è difficile immaginare qualcuno più adatto a gestire x di astro teller, il cui titolo era letteralmente "capitano del moonshot". all'interno dell'edificio di google x, un grande magazzino a tre piani riconvertito, puoi sempre trovare astro che indossa i suoi caratteristici pattini a rotelle.

aggiungi la sua coda di cavallo, il suo sorriso sempre amichevole e, naturalmente, il nome "astro" e potresti sentirti come se fossi entrato nella serie della hbo "silicon valley".

quando astro e io ci siamo seduti per la prima volta per discutere di cosa dovremmo fare riguardo alla società di robotica acquisita da google, abbiamo concordato che avremmo dovuto agire, ma cosa?

fino ad ora, i robot più utili erano grandi, poco intelligenti e pericolosi, confinati in fabbriche e magazzini e richiedevano una stretta supervisione o gabbie per proteggere le persone dai pericoli.come possiamo creare robot che siano utili e sicuri negli ambienti quotidiani?ciò richiede un nuovo approccio.

in altre parole, stiamo dando un corpo all'intelligenza artificiale nel mondo fisico, e se c'è un posto in cui è possibile concepire un progetto di questa portata, sono sicuro che sia x.

ci vorrà molto tempo, molta pazienza, provando idee folli e fallendo in molti tentativi,saranno necessari importanti progressi nell’intelligenza artificiale e nella robotica, che probabilmente costeranno miliardi di dollari (sì, miliardi).

la convergenza tra intelligenza artificiale e robotica è inevitabile e riteniamo che molte cose che finora sono esistite solo nella fantascienza stanno per diventare realtà.

è davvero difficile

quasi ogni settimana parlo al telefono con mia madre e lei inizia sempre con la stessa domanda: "quando arrivano i robot?"

non ci saluta nemmeno, vuole solo sapere quando il nostro robot verrà ad aiutarla. io rispondevo: "ci vorrà un po', mamma", e lei diceva: "è meglio che si sbrighino!"

hans peter brondmo

mia madre vive a oslo, in norvegia, che ha un'eccellente assistenza sanitaria pubblica; gli operatori sanitari vengono nel suo appartamento tre volte al giorno per aiutarla con una serie di compiti e faccende domestiche, per lo più legati al suo morbo di parkinson in fase avanzata.

mentre questi operatori sanitari le permettevano di vivere da sola a casa sua, mia madre voleva che il robot la aiutasse con le piccole cose che ormai erano troppo imbarazzanti da gestire, o semplicemente per fornirle un braccio su cui appoggiarsi ogni tanto.

"lo sai che la robotica è un problema sistemico, vero?" mi ha chiesto jeff con uno sguardo interrogativo. jeff bingham è un ragazzo snello e concreto con un dottorato in bioingegneria. è cresciuto in una fattoria ed era noto per sapere quasi tutto.

un punto importante che jeff sta cercando di sottolineare è:un robot è un sistema molto complesso e le sue prestazioni complessive sono pari a quelle del suo anello più debole

ad esempio, se il sottosistema responsabile della visione ha difficoltà a percepire gli oggetti davanti a sé sotto la luce solare diretta, il robot potrebbe improvvisamente "diventare cieco" e smettere di funzionare quando la luce del sole splende attraverso la finestra.

oppure, se il sistema di navigazione non riconosce le scale, il robot potrebbe cadere dalle scale, ferendo se stesso e forse anche gli astanti innocenti. pertanto, costruire un robot che possa vivere e lavorare al nostro fianco è difficile. davvero, molto difficile.

per decenni si è cercato di programmare varie forme di robot per eseguire anche compiti semplici, come prendere una tazza da un tavolo o aprire una porta, ma questi programmi si sono sempre rivelati estremamente fragili al minimo cambiamento nell’ambiente. fallirà.

una volta che inizi a pensare a tutto, ti rendi conto che, a meno che non blocchi tutto in modo che sia tutto in una posizione fissa e preimpostata, e la luce sia giusta e non cambi mai, è solo questione di prendere una mela verde, metterla in una ciotola di vetro sul tavolo della cucina, diventa un puzzle quasi impossibile da risolvere: ecco perché i robot nelle fabbriche sono rinchiusi e tutto, dall'illuminazione al posizionamento degli oggetti su cui lavorano, è prevedibilmente risolvibile preoccuparti di imbatterti in persone.

il mondo reale manca di prevedibilità, come quel raggio di sole.e non abbiamo nemmeno toccato le parti veramente difficili, come muoversi negli spazi disordinati in cui viviamo e lavoriamo.

come comprendere i robot di apprendimento

ma a quanto pare servono solo 17 esperti di machine learning.

almeno questo è quello che mi ha detto larry page, una delle sue intuizioni classiche e difficili da comprendere.

sto cercando di sostenere che non possiamo costruire infrastrutture hardware e software solo con un piccolo gruppo di ricercatori sull'apprendimento automatico.

agitò la mano con disapprovazione e disse: "te ne servono solo 17".

non ho capito bene. perché non 11? o 23? devo essermi perso qualcosa.

in definitiva, ci sono due modi principali per applicare l’intelligenza artificiale alla robotica. il primo è un approccio ibrido, in cui diverse parti del sistema sono guidate dall’intelligenza artificiale e poi unite attraverso la programmazione.

in questo approccio, il sottosistema di visione potrebbe utilizzare l’intelligenza artificiale per identificare e classificare il mondo che vede. una volta creato un elenco degli oggetti che vede, il robot riceve l'elenco e utilizza i metodi nel codice per agire su di esso.

ad esempio, se il programma è stato scritto per raccogliere la mela dal tavolo, il sistema di visione basato sull'intelligenza artificiale rileverà la mela e il programma selezionerà "tipo: mela" dall'elenco, quindi utilizzerà il software di controllo per chiedere il robot per raggiungerlo.

un altro approccio è l’apprendimento end-to-end (e2e), che tenta di apprendere l’intero compito. cose come "prendere in mano un oggetto" o sforzi ancora più completi come "riordinare il tavolo". il processo di apprendimento si ottiene esponendo il robot a grandi quantità di dati di addestramento, proprio come gli esseri umani imparano a svolgere un compito fisico.

se chiedi a un bambino piccolo di prendere una tazza, potrebbe aver bisogno di imparare cos'è una tazza e che può contenere liquidi. mentre giocava con la tazza, la rovesciava ripetutamente, versando molto latte. ma attraverso il modello, l’imitazione degli altri e molta pratica ludica, possono sempre imparare a farlo, alla fine senza nemmeno pensare ai passaggi.

piano piano ho capitoa meno che non dimostriamo alla fine che i robot possono imparare a eseguire compiti end-to-end, nient’altro avrà importanza.solo allora avremo una reale possibilità che i robot svolgano questi compiti in modo affidabile nel caotico e imprevedibile mondo reale, qualificandoci per essere davvero un successo sulla luna.

non si tratta del numero “17”, si tratta dile grandi scoperte richiedono piccoli team, piuttosto che un esercito di ingegneri. ovviamente, un robot è più del suo cervello ai, dobbiamo ancora progettare e costruire un robot fisico.

tuttavia, è chiaro che una missione end-to-end di successo ci porterebbe a credere (nel linguaggio del programma di sbarco sulla luna) che possiamo sfuggire alla gravità terrestre.

robot con un braccio solo

peter pastor è un robotista tedesco che ha conseguito il dottorato in robotica presso la university of southern california. nei rari momenti in cui non deve lavorare, peter cerca di raggiungere la sua ragazza e fare kitesurf. nel laboratorio, ha trascorso la maggior parte del suo tempo controllando 14 bracci robotici proprietari, che sono stati successivamente sostituiti con sette bracci robotici industriali kuka. chiamiamo questa configurazione "meccanica arm farm".

questi bracci robotici operano 24 ore su 24, cercando costantemente di recuperare oggetti da una scatola, come spugne, mattoncini lego, anatre gialle o banane di plastica. inizialmente, erano programmati per spostare una pinza simile ad un artiglio nella scatola da una posizione casuale sopra di essa, chiudere la pinza, tirarla su e vedere se catturavano qualcosa. c'è una telecamera sopra la scatola che cattura gli oggetti all'interno della scatola, i movimenti del braccio robotico e se ha avuto successo.

questa formazione è continuata per diversi mesi. all'inizio il robot aveva una percentuale di successo solo del 7%. ma ogni volta che il robot ha successo, riceve un rinforzo positivo. per i robot, ciò significa sostanzialmente che i cosiddetti "pesi" nella rete neurale vengono adattati in base a vari risultati per rinforzare positivamente i comportamenti desiderati e rinforzare negativamente i comportamenti indesiderati. alla fine, le braccia hanno imparato ad afferrare con successo gli oggetti più del 70% delle volte.

un giorno, peter mi ha mostrato un video di un braccio robotico che non solo afferra con precisione un mattoncino lego giallo, ma spinge anche via altri oggetti per ottenere un angolo di presa più chiaro.

sapevo che questo segnava una vera svolta: il braccio robotico non era stato programmato esplicitamente per eseguire questa azione utilizzando le euristiche tradizionali.si acquisisce attraverso l'apprendimento

ma anche così: sette robot hanno impiegato diversi mesi per imparare a catturare una piccola papera gialla? questo è lungi dall'essere sufficiente. anche centinaia di robot e diversi anni di pratica non sono sufficienti per insegnare loro a svolgere i primi compiti utili nel mondo reale. abbiamo quindi creato un simulatore basato sul cloud e creato più di 240 milioni di istanze di robot virtuali nel 2021.

pensa a questo simulatore come a un videogioco gigante, con modelli fisici sufficientemente realistici da simulare il peso degli oggetti o l'attrito della superficie.

migliaia di robot virtuali utilizzano i feed delle loro telecamere virtuali e corpi virtuali (modellati su robot reali) per eseguire compiti come prendere una tazza da un tavolo.

correrebbero simultaneamente, provando e fallendo milioni di volte, raccogliendo dati per addestrare gli algoritmi dell’intelligenza artificiale. una volta che i robot si comportano abbastanza bene nelle simulazioni, questi algoritmi vengono trasferiti ai robot fisici per l’addestramento finale nel mondo reale in modo che possano implementare le azioni appena apprese.

penso sempre a questo processo di simulazione come a un robot che sogna tutta la notte e poi si sveglia dopo aver imparato qualcosa di nuovo.

sciocco, il problema sono i dati

quando ci siamo svegliati per la prima volta con chatgpt, sembrava magico. un sistema basato sull’intelligenza artificiale può effettivamente scrivere paragrafi completi, rispondere a domande complesse e dare vita a conversazioni continue. ma allo stesso tempo ne comprendiamo anche i limiti fondamentali: per raggiungere questo obiettivo, dobbiamo consumare molti dati.

i robot stanno già sfruttando modelli linguistici di grandi dimensioni per comprendere le istruzioni e modelli visivi per capire ciò che vedono, il che rende sorprendenti i loro video dimostrativi su youtube.

ma insegnare ai robot a vivere e lavorare autonomamente con noi è un problema di dati altrettanto enorme. sebbene esistano allenamenti simulati e altri modi per generare dati di addestramento,è improbabile che un giorno un robot si "svegli" con un alto grado di capacità e faccia invece affidamento su un modello di base in grado di controllare l'intero sistema.

non siamo ancora sicuri di quanto siano complessi i compiti che possiamo insegnare ai robot a svolgere con l’intelligenza artificiale. sono appena arrivato a credere che, ad eccezione di quei compiti molto ristretti e ben definiti, far sì che i robot imparino qualsiasi cosa possa richiedere migliaia o addirittura milioni di robot che eseguono ripetutamente compiti nel mondo reale e raccolgono dati sufficienti per addestrare end-to- modelli finali. in altre parole, non aspettatevi che i robot sfuggano presto al nostro controllo e facciano cose per cui non sono programmati.

dovrebbero davvero assomigliarci?

i cavalli sono molto efficienti quando camminano e corrono su quattro zampe, ma noi progettiamo automobili con le ruote; il cervello umano è un computer biologico estremamente efficiente, e i computer basati su chip non sono neanche lontanamente vicini alle prestazioni del nostro cervello. perché le auto non hanno le gambe e perché i computer non sono modellati sulla nostra biologia?

l'obiettivo della costruzione di un robot non dovrebbe essere solo quello di imitare.

l'ho imparato l'altro giorno mentre ero a una riunione con i leader tecnici di everyday robots. ci siamo seduti attorno al tavolo delle conferenze, discutendo se il nostro robot dovesse avere gambe o ruote.

tali discussioni spesso tendono a trasformarsi in dibattiti religiosi piuttosto che in discussioni scientifiche o basate sui fatti. alcune persone insistono molto sul fatto che i robot dovrebbero assomigliare alle persone, e per una buona ragione: progettiamo i nostri ambienti di vita e di lavoro per accogliere gli esseri umani e abbiamo gambe, quindi forse anche i robot dovrebbero avere gambe.

dopo circa 30 minuti, vincent dureau, il responsabile tecnico più anziano presente nella stanza, prese la parola. "ho pensato che, se posso arrivare da qualche parte, anche un robot dovrebbe essere in grado di arrivarci", ha detto semplicemente, seduto sulla sua sedia a rotelle.

nella stanza calò il silenzio e la discussione finì.

in effetti, le gambe dei robot sono complesse sia dal punto di vista meccanico che elettronico. non si muovono molto velocemente, tendono a rendere il robot instabile e non sono molto efficienti dal punto di vista energetico rispetto alle ruote.

oggi, quando vedo aziende che cercano di creare robot umanoidi – robot che si sforzano di imitare forma e funzione umane – spesso mi chiedo se questo non sia un limite dell’immaginazione.

ci sono così tanti progetti da esplorare che possono integrare le carenze umane, perché dovremmo insistere sull’imitazione?le parole di vincent ci ricordano che dovremmo dare priorità ai problemi più difficili e di maggiore impatto.noi di everyday robots cerchiamo di mantenere i nostri robot quanto più semplici possibile perché prima un robot potrà eseguire compiti del mondo reale, più velocemente potremo raccogliere dati preziosi.

cosa si prova ad essere circondati da robot?

ero seduto alla mia scrivania quando un robot con un braccio solo e una testa rettangolare arrotondata si è girato, ha chiamato il mio nome e mi ha chiesto se volevo che pulisse. ho detto di sì e mi sono fatto da parte.

pochi minuti dopo, raccolse diversi bicchieri di carta vuoti, una tazza di tè freddo trasparente di starbucks e l'involucro di plastica di una barretta energetica kind. mise gli oggetti in un vassoio della spazzatura attaccato alla base, poi si voltò verso di me, annuì e passò alla scrivania successiva.

questo servizio di pulizia delle scrivanie rappresenta una pietra miliare importante: dimostra che stiamo facendo buoni progressi verso la soluzione di un pezzo irrisolto del puzzle della robotica. i robot stanno iniziando a utilizzare in modo affidabile l’intelligenza artificiale per riconoscere persone e oggetti!

benji holson è un ingegnere del software ed ex burattinaio che guida il team di sviluppo del servizio. ha sempre sostenuto un approccio ibrido e non si oppone ai compiti di apprendimento end-to-end, ma preferisce un atteggiamento del tipo "lasciamo che facciano qualcosa di utile adesso".

sono abituato ai robot che si muovono facendo lavori come pulire la mia scrivania. di tanto in tanto vedrò nuovi visitatori o ingegneri appena entrati nel team, con espressioni di sorpresa e gioia sui volti, osservare l'indaffarata figura del robot.

dal loro punto di vista, ho capito quanto fosse nuovo tutto ciò. come disse il nostro capo del design rhys newman (con il suo accento gallese) quando un giorno vide passare il robot: "non è un po' strano che questa sia diventata la norma?"

tutto finisce, è solo l'inizio

alla fine del 2022 sono ancora attive le discussioni sui “metodi end-to-end” e sui “metodi ibridi”.

peter e il suo team, insieme ai colleghi di google brain, hanno lavorato duramente per applicare l'apprendimento per rinforzo, l'apprendimento per imitazione e le architetture transformer a molteplici attività di robotica. hanno compiuto progressi significativi nel dimostrare come i robot possano apprendere in modo generale, robusto e resiliente.

nel frattempo, il team applicativo guidato da beinji sta combinando modelli di intelligenza artificiale con la programmazione tradizionale per prototipare e costruire servizi robotici che possano essere implementati in ambienti umani.

nel frattempo, una collaborazione con la ballerina katie su un'installazione multi-robotica che divenne nota come project starling ha cambiato il modo in cui mi sentivo riguardo a queste macchine.

ho notato che le persone erano attratte da questi robot con un senso di meraviglia, gioia e curiosità. questo mi ha fatto capire come i robot che si muovono tra noi, e i suoni che producono, possano innescare profonde emozioni umane; questo sarà uno dei fattori chiave per accoglierli nella nostra vita quotidiana;

in altre parole, siamo sul punto di realizzare la nostra scommessa più grande: robot alimentati dall’intelligenza artificiale. l’intelligenza artificiale dà loro la capacità di comprendere la lingua che sentono (parlata e scritta) e di tradurla in azioni, o di comprendere ciò che vedono (immagini della fotocamera) e tradurlo in scene e oggetti che possono manipolare.

dopo più di sette anni di lavoro, disponiamo di una flotta di robot distribuiti in più edifici google. lo stesso tipo di robot esegue una serie di servizi: pulisce automaticamente i tavoli della mensa, ispeziona le sale conferenze, differenzia i rifiuti e altro ancora.

tuttavia, nel gennaio 2023, due mesi dopo il rilascio di chatgpt da parte di openai, google ha chiuso everyday robots, citando problemi di costi complessivi.

sebbene sia stato certamente lungo e costoso, è stato comunque uno shock per tutti i soggetti coinvolti. alla fine, il robot e una manciata di dipendenti sono stati trasferiti su google deepmind per continuare la ricerca.

l’enorme problema che dobbiamo risolvere è il cambiamento demografico globale: invecchiamento della popolazione, contrazione della forza lavoro e carenza di manodopera. e la nostra tecnologia rivoluzionaria – lo sapevamo nel 2016 – sarebbe stata l’intelligenza artificiale. la soluzione radicale: robot completamente autonomi che possono aiutarci con i compiti che si presentano nella nostra vita quotidiana.

il robot non è arrivato in tempo per aiutare mia madre ed è morta all'inizio del 2021. le mie conversazioni con lei verso la fine della sua vita hanno rafforzato la mia convinzione che le versioni future di everyday robots prima o poi sarebbero arrivate. e prima arriva, meglio è.

quindi la domanda è: come avviene questo cambiamento e questo futuro? sono sia preoccupato che curioso riguardo a questo.