notizia

Esperto di robotica di Google: anche l’intelligenza artificiale si scontrerà con lo stesso muro che i robot hanno incontrato nella realtà

2024-07-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Rapporto sul cuore della macchina

Editore: Zhang Qian

"L'apprendimento automatico vive in una bolla che fa invidia a robotici, chimici, biologi e neuroscienziati e, non appena inizierà davvero a decollare, incontreremo tutti gli stessi problemi con cui tutti gli altri hanno a che fare per anni barriere realistiche”.

Alcuni sostengono che i progressi nel campo della robotica siano lenti, o addirittura privi di progressi, rispetto ad altri sottocampi dell’apprendimento automatico.

Alex Irpan, scienziato di robotica presso Google DeepMind e partecipante a progetti di intelligenza incarnata come SayCan, RT-1 e RT-2, è d'accordo. Ma secondo lui ciò è dovuto al fatto che la robotica è un campo strettamente connesso alla realtà e la complessità della realtà determina che inevitabilmente si scontreranno con un muro. Ha inoltre osservato che questi problemi non riguardano esclusivamente la robotica. Lo stesso problema si applica a tecniche come i modelli linguistici di grandi dimensioni (LLM). Questi modelli incontrano complessità simili a quelle della robotica quando si confrontano con il mondo reale.

Recentemente, ha scritto un blog intitolato “Le tragedie della realtà stanno arrivando per te” per illustrare questo punto.



La tragedia della realtà sta arrivando a te

Nel 2023 ho partecipato a una conferenza sul ML. Ye Weiyang era ubriaco e l'argomento si è trasformato in una domanda: "Se potessi dare le risorse di qualsiasi sottocampo di apprendimento automatico a un altro sottocampo, quale taglieresti e a chi daresti le risorse?"

Non ricordo cosa abbiano detto gli altri, ma una persona ha detto che avrebbero abbattuto i robot. Quando ho insistito ulteriormente, hanno detto che la robotica stava progredendo troppo lentamente e che non stava accadendo nulla rispetto ad altri campi.

Dicono che la robotica sia progredita più lentamente rispetto al sottocampo puramente software dell’apprendimento automatico, e penso che abbiano ragione, ma vorrei aggiungere altri due punti:

  • Il motivo per cui i robot imparano più lentamente è perché è difficile fare la differenza senza risolvere problemi difficili.
  • Le sfide della robotica non riguardano esclusivamente i robot.

Nel campo della robotica, un detto comune è che "la realtà è disordinata". Relativamente al codice, lo estenderei a "la realtà è complessa". Nella robotica, si tende a spingere la realtà disordinata a un livello di astrazione sufficientemente buono da consentire il funzionamento del codice. Come campo, l’informatica ha impiegato decenni a creare buoni livelli di astrazione tra hardware e software. Il codice descrive come fornire energia al disco rigido, al processore e al display ed è abbastanza affidabile da non dover nemmeno pensarci.



Ci sono molti vantaggi nel fare questo. Una volta che hai svolto il duro lavoro e spostato i progressi del tuo lavoro in uno spazio logico astratto, tutto diventa più semplice. Il codice e i dati sono incredibilmente riproducibili. Ho sincronizzato le copie del file che rappresenta una bozza di questo post del blog su 3 dispositivi senza nemmeno pensarci.

Tuttavia, come ha detto Joel Spolsky, tutte le astrazioni hanno in una certa misura dei buchi, e trovo che i buchi nella robotica tendano ad essere ancora maggiori. Esistono molti modi in cui le cose possono andare storte che non hanno nulla a che fare con la correttezza del codice.

Ha a che fare con alcuni principi basilari della materia? Un po. Gran parte dell’hardware robotico è più sperimentale dei laptop o dei server Linux. La robotica di consumo non è ancora una grande industria. "Sperimentale" spesso significa "stati strani, più inclini al fallimento".

Tuttavia, non credo che l'hardware sia la causa principale del problema. La realtà è la radice del problema. Benjamin Holson lo spiega molto bene nel suo articolo “Mythical Non-Roboticist”:

La prima difficoltà è che i robot devono fare i conti con una percezione imperfetta e un’esecuzione imperfetta nel mondo reale. Lo stato globalmente mutabile è un cattivo stile di programmazione perché è davvero difficile da gestire, ma per il software robotico l'intero mondo fisico è uno stato globalmente mutabile e puoi solo osservarlo in modo inaffidabile e sperare che la tua Azione ti avvicini a ciò che vuoi ottenere.

La ricerca sulla robotica si basa sulla costruzione di nuovi ponti tra realtà e software, ma ciò avviene anche al di fuori della ricerca sulla robotica. Qualsiasi software che si interfaccia con la realtà ha una comprensione imperfetta della realtà. Qualsiasi software che tenta di influenzare il cambiamento nel mondo reale deve affrontare lo stato della realtà globalmente mutevole. Qualsiasi software il cui comportamento dipende da ciò che sta accadendo nella realtà invita al rumore e alla complessità dell'avversario.

L’intelligenza artificiale del gioco è un buon esempio. L'intelligenza artificiale degli scacchi è estremamente affidabile. Tuttavia, alcune Go AI sovrumane possono essere battute se giochi a scacchi in un modo specifico, come Tony T. Wang et al hanno scoperto nel documento ICML 2023 "Adversarial Policies Beat Superhuman Go AIs". Le tecniche antagoniste trovano strategie sufficientemente chiare da consentire agli esseri umani di replicarle.

Nell'Appendice G.2, uno dei nostri autori, un esperto di Go, è stato in grado di implementare questo attacco [ciclico] apprendendo i record di gioco dell'avversario senza alcun aiuto algoritmico. Hanno giocato in condizioni umane standard sul server Go online di KGS e hanno ottenuto una percentuale di vincita superiore al 90% nei migliori giochi di robot KataGo non correlati all'autore.
L'autore è persino riuscito a vincere dando al robot 9 handicap, il che è un enorme vantaggio: un giocatore di scacchi professionista umano con questi handicap avrebbe una percentuale di vittoria quasi del 100% contro qualsiasi avversario, umano o AI%. Hanno anche battuto KataGo e Leela Zero, che hanno entrambi effettuato 100.000 ricerche per partita, un risultato che in genere va ben oltre le capacità umane. Da allora, altri umani hanno utilizzato l'attacco ciclico per sconfiggere varie altre IA di Go.

Nel frattempo, qualche anno fa, OpenAI creò un sistema che sconfisse il campione del mondo in carica di Dota 2. Dopo aver aperto il sistema al pubblico per testarne la robustezza, una squadra ha ideato una strategia che ha portato a una serie di 10 vittorie consecutive.



Sulla base di ciò, potresti avere una visione pessimistica secondo cui anche una semplice "realtà" come collegare una scheda Go 19 x 19 o Dota 2 ha una complessità aggiuntiva sufficiente per rendere difficile un comportamento robusto. Penso che questo punto di vista sia ingiusto, poiché nessuno dei due sistemi ha la robustezza come obiettivo massimo, ma penso che costituiscano un caso di studio interessante.

Ultimamente, c'è stata un'ondata di clamore intorno agli LLM: cosa possono fare e dove possono essere applicati. In ciò è implicita la convinzione che il LLM possa cambiare radicalmente il modo in cui le persone interagiscono con la tecnologia sul lavoro e nel tempo libero. In altre parole, LLM cambierà il modo in cui interagiamo con la realtà. In effetti, sono saltato sul carro dell’hype, in particolare sul mio sospetto che il modello sottostante sia stato sopravvalutato nel breve termine e sottostimato nel lungo termine. Tuttavia, ciò significa anche che, per un campo che storicamente è stato incapace di tenere conto della realtà, tutto il caos della realtà sta arrivando.

Alla stessa conferenza ML in cui questo ragazzo diceva che la robotica è uno spreco di risorse, ho detto che stavamo facendo esperimenti su modelli di base con robot reali. Alcune persone hanno detto che sembrava un po' spaventoso e io ho assicurato loro che era solo un prototipo di ricerca. Ma trovo anche un po’ intimidatorio il software di generazione ed esecuzione LLM, e trovo interessante che siano vagamente preoccupati per l’uno ma non per l’altro. Le persone nella Silicon Valley sono un po’ una contraddizione. Credono sia che il software possa aiutare le start-up a ottenere cambiamenti sorprendenti, sia che il loro software non sia degno di pensiero o riflessione. Credo che il mondo dei bit faccia parte della realtà tanto quanto il mondo degli atomi. Operano su diversi livelli, ma fanno tutti parte della realtà.

Ho notato (con un certo schadenfreude) che i professionisti LLM stanno iniziando a incontrare gli stessi punti critici che la robotica ha riscontrato in precedenza. Ad esempio: "Non possiamo replicare questi corsi di formazione perché sono troppo costosi". Sì, nel campo della robotica si discute di questo tema da almeno dieci anni. Un altro esempio: "Non riesco a farmi dire da Bing la data di uscita di Avatar 2 perché continua a raccogliere notizie su se stesso e a correggersi prima di generarle."

Ora viviamo in un mondo in cui qualsiasi testo pubblicamente disponibile su Internet influisce irrevocabilmente sulla generazione del miglioramento del recupero. Benvenuti nello stato mutevole globale. Ogni volta che vedo qualcuno affermare che il comportamento di ChatGPT è regredito, penso alle varie "teorie del complotto" che io e altri abbiamo elaborato per spiegare l'improvviso e inspiegabile calo delle prestazioni dei robot, e se il problema risiede nel modello o nell'ambiente O è una nostra eccessiva inferenza.

Come dice il proverbio, "tutte le demo di robot mentono", le persone scoprono che anche tutte le demo di LLM mentono. Penso che, fondamentalmente, questo sia inevitabile perché la capacità di attenzione umana è limitata. È importante valutare il tipo, la dimensione e il significato della menzogna. Mostrano come il modello/bot generalizza? Hanno menzionato con quanta cura sono stati selezionati questi esempi? Questi problemi diventano più complessi una volta che la realtà è collegata. Messi sembra un buon giocatore in questo momento, ma "ce la farà in una notte fredda e piovosa a Stoke City"?

A complicare le cose, la risposta a queste domande non è sempre "no". Messi potrebbe farlo in una notte fredda e piovosa a Stoke City. E' abbastanza bravo. Ciò rende la domanda difficile, perché è molto più importante rispondere a un "sì" corretto che rispondere a un "no" corretto. Man mano che il LLM migliora sempre di più e l’intelligenza artificiale diventa più comune nella vita di tutti i giorni, come società dobbiamo migliorare sempre di più nel giudicare se un modello si è dimostrato valido. Una delle mie principali preoccupazioni per il futuro è che non siamo bravi a valutare se i modelli si sono dimostrati efficaci.

Tuttavia, mi aspetto che i robotisti siano all’avanguardia. Ci lamentavamo dei problemi di valutazione prima che emergesse il suggerimento che LLM avesse manipolato i benchmark comuni. Molto prima che “abbiamo bisogno di una migliore copertura dei dati” diventasse lo slogan del team di pre-formazione del modello base, stavamo lavorando duramente per ottenere dati sufficienti per catturare l’effetto a coda lunga della guida autonoma. L'apprendimento automatico vive in una bolla che fa invidia a robotici, chimici, biologi e neuroscienziati, e quando inizierà davvero a decollare, incontreremo tutti gli stessi problemi con cui tutti gli altri hanno a che fare per anni. Barriere realistiche. Queste sfide possono essere superate, ma saranno difficili. Benvenuto nel mondo reale. Benvenuti nel mondo del dolore.

Link originale: https://www.alexirpan.com/2024/07/08/tragedies-of-reality.html