notizia

intervista di 10.000 parole a ultraman: guidare la rivoluzione dell'intelligenza artificiale nel centro della tempesta, un dialogo sulle turbolenze e sul futuro della tecnologia

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

testo: web3 sky city · city lord

è passato un po' di tempo, ma è stato rilasciato un video completo dell'intervista faccia a faccia del ceo di openai sam altman dopo il ritorno a openai. questo è il momento in cui greg è in vacanza, viene fondata la nuova società di ilya e escono notizie sulle continue perdite di openai e su nuovi finanziamenti.

questa intervista è stata ospitata dal famoso conduttore trevor cui wa ciò che sorprende è che trevor ha una conoscenza molto approfondita della tecnologia ai, migliore del 95% degli host non tecnici.

in questa intervista, trevor e sam hanno avuto una conversazione ad ampio raggio discutendo di intelligenza artificiale, openai e della carriera e del viaggio personale di sam. partendo dal suo ritorno a openai, sam ha condiviso come ha riflettuto sulla relazione tra missioni personali e aziendali in una serie di caos e incertezze, e ha parlato della futura direzione di sviluppo di agi.

sam non solo ha elaborato l’enorme potenziale dell’agi in termini di cognizione, produttività ed effetti sociali, ma ha anche risposto alle sfide legate alla sicurezza dell’intelligenza artificiale, alle questioni etiche, ai compromessi capitalistici e alla rivoluzione tecnologica. allo stesso tempo, ha discusso apertamente i suoi pensieri sulla governance aziendale di openai, su come bilanciare il progresso tecnologico e la responsabilità sociale, e ha sottolineato l'importanza della trasparenza e della governance democratica della tecnologia.

il viaggio per riconquistare il timone di openai: sam altman riflette sulla sua breve partenza e racconta come ha riscoperto il suo amore per openai e la sua missione durante questo tumulto. sebbene sia stato licenziato per un breve periodo, ha sottolineato di aver imparato dall'esperienza e di aver sentito l'importanza di continuare a portare avanti lo sviluppo di agi.

il futuro dell'agi e la rivoluzione tecnologica: sam altman crede fermamente che l'agi porterà ad una rivoluzione tecnologica senza precedenti, anche se i cambiamenti sociali ed economici potrebbero non essere così rapidi come previsto. egli ritiene che, sebbene la tecnologia si avvicinerà sempre di più all'agi, il suo impatto effettivo sulla società sarà graduale, consentendo alla società di adattarsi gradualmente ai cambiamenti apportati dalle nuove tecnologie.

l’equilibrio tra capitalismo e intelligenza artificiale: nell'intervista, sam altman discute in dettaglio come openai opera all'interno di un sistema capitalista pur mantenendo la sua intenzione originale al momento della sua creazione, ovvero garantire che i benefici dell'agi siano ampiamente distribuiti. sebbene openai debba competere nel capitalismo per ottenere le risorse necessarie per lo sviluppo, ha sottolineato che il progresso tecnologico non dovrebbe andare a scapito dell’etica e della responsabilità sociale.

governance democratica e impatto sociale dell’intelligenza artificiale: sam altman ha sottolineato un punto importante, ovvero che la governance della tecnologia ai dovrebbe essere più democratica. ritiene che il pubblico dovrebbe essere maggiormente coinvolto nel decidere come vengono utilizzati i sistemi di intelligenza artificiale e nella definizione delle regole, e sottolinea l’importanza della trasparenza tecnica e della governance diversificata.

preoccupazioni sulla sicurezza e sull’etica dell’ia: nell'intervista, sam altman ha ammesso che, sebbene l'intelligenza artificiale abbia un enorme potenziale, presenta anche molti potenziali rischi per la sicurezza. ha sottolineato in particolare i rischi dell’intelligenza artificiale nella sicurezza informatica, nella biologia sintetica, ecc. e ha invitato la società a promuovere lo sviluppo tecnologico in modo responsabile.

una visione più ampia per l’intelligenza artificiale: sam altman è ottimista riguardo al futuro. crede che con la maturazione dell’agi, tutti avranno maggiori opportunità di perseguire interessi personali e la tecnologia migliorerà notevolmente l’istruzione globale e gli standard medici. anche se l’innovazione tecnologica comporterà cambiamenti nel lavoro e nei modelli sociali, egli ritiene che, in ultima analisi, lo spirito umano e la creatività ci spingeranno verso un futuro più prospero.

trevor:

grazie per aver dedicato del tempo per essere intervistato.

sam: grazie.

trevor: non pensi che sia un momento folle?

sam: è stato il momento più folle che abbia mai vissuto.

trevor:

sì, sei tu al centro di tutto. mi chiedo come ci si sente. perché sono solo un avido osservatore di questo campo e di questo mondo, sai? sento che sei tu quello colpito da tutto questo. voglio dire, sam altman è nella lista dei candidati della rivista time come persona dell'anno.

sam: sono contento di non averlo capito.

trevor: sono contento che non l'hai capito?

sam: sì, certo.

trevor: perché?

sam: quest'anno ho già ricevuto più attenzioni di quante ne abbia avute in tutta la mia vita.

trevor: va bene, va bene. quindi non ti piace l'attenzione? non vuoi l'attenzione?

sam:

no, questo è troppo crudele. in un certo senso è interessante. questo è utile in qualche modo. ma per la vita personale, la qualità della vita viene valutata. sì, decisamente no. ma adesso è così. questo è ciò per cui mi sono iscritto.

trevor: sì, ora è il momento della notorietà.

sam: sì.

trevor: la gente ti riconosce per strada?

sam:questo è un pessimo compromesso. sì, mi sembra che tu non abbia mai... sono sicuro che succederà anche a te, ma non posso più rimanere anonimo.

trevor:sì, ma la gente non mi chiede del futuro.

sam:non ti chiedono se distruggerai il mondo.giusto. c'è una piccola differenza. la gente potrebbe voler fare una foto con me. questa è la portata. tante foto di gruppo.

trevor: beh, congratulazioni. sei l'amministratore delegato dell'anno per la rivista time.

sam: sì.

trevor:

questo è stato probabilmente uno dei momenti più strani perché immagino che fosse più o meno il periodo in cui la rivista time stava prendendo questa decisione. qualche settimana fa forse non saresti stato il ceo dell’anno. non so se potranno ancora darti questo premio. immagino sia per il tuo lavoro precedente.

sam: sì, non lo so. non so come funzioni.

trevor: come ci si sente ad essere di nuovo ceo?

sam:

sto ancora riprogrammando la realtà, a dire il vero. in un certo senso, è stato fantastico perché durante tutto il processo ho imparato molto su quanto amo questa azienda, la sua missione e le sue persone. e, più volte lungo il percorso, ho sperimentato l’intera gamma delle emozioni umane in un breve periodo di tempo. ma un momento molto chiaro per me è che tutto questo è accaduto un venerdì pomeriggio, un venerdì a mezzogiorno. la mattina dopo, sabato, diversi membri del consiglio mi hanno chiamato e mi hanno chiesto se erano disposti a discutere un ritorno.

ho sentimenti molto contrastanti a riguardo. ma alla fine mi è diventato molto chiaro che volevo tornare.

adoro davvero questo posto e quello che stiamo facendo. penso che sia importante per il mondo, ed è ciò a cui tengo di più.

trevor:

nel mondo della tecnologia, assumere e licenziare è qualcosa a cui tutti devono abituarsi.

so che sei stato licenziato da y combinator in passato. tutti in questa situazione hanno una storia.

sam: non voglio parlare di questo.

trevor: dimmi, dimmi. queste cose, fai le tue ricerche e parti da lì.

sam:

ho deciso circa un anno prima (lasciando yc) che volevo venire a openai.

è stata una transizione complicata. ma stavo lavorando contemporaneamente su openai e yc ed ero abbastanza sicuro di voler venire a openai. non me ne sono mai pentito.

trevor:allora non sei mai stato licenziato. è una situazione difficile in cui trovarsi come essere umano.

sam: questo è un licenziamento?

trevor: e se venissi licenziato e riassunto immediatamente?

sam:quello che stavo per dire era qualcosa di più che... è semplicemente brutale... immagino che non dovrei parlarne adesso.

questa è una cosa molto dolorosa. a me personalmente, come essere umano, è sembrato molto ingiusto e il modo in cui è stato gestito è stato davvero ingiusto.

trevor:

posso immaginare. molte persone parleranno di essere licenziate.

questa è diventata una tendenza durante la pandemia, soprattutto quando le persone parlavano di ricevere un’e-mail o un video inviato a un gruppo, e poi migliaia di dipendenti sono stati licenziati.

raramente pensi che ciò possa accadere al ceo di un'azienda. inoltre, non penseresti che una cosa del genere possa accadere al ceo che molti chiamano lo "steve jobs" di questa generazione e del futuro.

a proposito, non ti chiami così.

sam: naturalmente no.

trevor:

questo è ciò che molte persone dicono di te, ma non credo sia giusto chiamarti lo steve jobs di questa generazione. secondo me tu sei il prometeo di questa generazione. lo sei davvero.

mi sembra che tu abbia rubato il fuoco a dio. tu sei in prima linea in questa trasformazione e ora stiamo vivendo un’era in cui l’intelligenza artificiale un tempo era oggetto di fantascienza e leggenda, e ora sei in prima linea in qualcosa che potrebbe cambiare la civiltà per sempre.

pensi che il futuro cambierà a tutti i livelli?

sam:

credo di si.

è del tutto possibile che mi sbagli su quello che sto per dire, ma la mia sensazione è che costruiremo qualcosa su cui quasi tutti saranno d'accordo, ovvero l'agi. definire l'intelligenza generale artificiale (agi) è molto difficile, ma costruiremo un sistema che le persone guarderanno e diranno: "okay, ce l'hai fatta". questo sistema è l’intelligenza artificiale generale, un sistema che è pari o superiore ai livelli umani.

trevor:

prima di spiegarlo nel dettaglio, quale pensi sia la più grande differenza tra la percezione che le persone hanno dell’ia e dell’intelligenza artificiale generale?

sam:

man mano che ci avviciniamo a questo campo, il modo in cui lo definiamo diventa molto importante e ci sono differenze. per alcuni, l'agi si riferisce a un sistema in grado di svolgere una parte importante del lavoro umano di oggi. naturalmente troveremo nuovi lavori e nuove cose da fare. ma per altri, agi si riferisce a un sistema che può aiutare a scoprire nuove conoscenze scientifiche. si tratta ovviamente di traguardi molto diversi con impatti molto diversi sul mondo.

anche se sono stanco del termine e non riesco nemmeno a smettere di usarlo, c'è una ragione per cui non mi piace più. il termine è agi. penso che per la maggior parte delle persone oggi significhi semplicemente un'intelligenza artificiale molto intelligente, ma oltre a ciò è diventato molto vago. penso che sia principalmente perché ci stiamo avvicinando.

quello che sto cercando di dire è che creeremo agi, come vuoi chiamarlo. almeno nel breve e medio termine, cambierà il mondo molto meno di quanto si pensi. nel breve termine, penso che la società abbia molta inerzia, l’economia abbia molta inerzia e anche il modo in cui le persone vivono la propria vita abbia molta inerzia. questo può essere salutare e vantaggioso mentre gestiamo questa transizione. facciamo tutti le cose in un certo modo e ci siamo abituati. anche la società come superorganismo si comporta in un certo modo ed è abituata ad esso.

guardando cosa è successo con gpt-4, penso che sia istruttivo. quando l'abbiamo lanciato per la prima volta, le persone hanno avuto un momento di vero panico in cui hanno pensato: "wow, non pensavo che sarebbe successo, ma poi sono andati avanti con le loro vite". cambia le cose e le persone lo usano. è una tecnica migliore di niente. ovviamente gpt-4 non è molto buono, 5, 6, 7, non importa quale, sarà molto meglio. tuttavia, penso che la versione 4 dell'interfaccia chatgpt sia il momento in cui molte persone passano dal non prenderla sul serio al prenderla molto sul serio. tuttavia, la vita va avanti.

trevor:

pensi che questo sia un bene per l’umanità e la società? la vita dovrebbe continuare così? come uno dei "padri" di questo prodotto, uno dei "genitori" di questa idea, vorresti che tutti noi ci fermassimo, ci prendessimo un momento e valutassimo dove siamo adesso?

sam:

penso che la resilienza degli esseri umani individualmente e collettivamente sia notevole. sono davvero entusiasta della nostra capacità di assorbire e adattarci alle nuove tecnologie e ai cambiamenti e di farli sentire parte del mondo. è davvero meraviglioso.

penso che covid sia l’esempio più recente in cui stiamo vedendo questo. il mondo si è adattato rapidamente e presto è sembrato normale. un altro esempio meno serio ma istruttivo è la montagna di notizie sugli ufo. questo è successo qualche anno fa. molti dei miei amici che una volta erano completamente scettici direbbero che forse quelli erano veri ufo o alieni o qualcosa del genere. eppure il giorno dopo andarono comunque a lavorare e giocarono con i loro figli.

trevor: sì, ho pensato, cos'altro puoi fare? se volano, volano.

quindi, vorrei che avessimo dedicato più tempo alla valutazione dei progressi? lo stiamo facendo come mondo e penso che sia grandioso. credo fermamente che l’implementazione iterativa di queste tecnologie sia importante. non vogliamo sviluppare l'intelligenza artificiale generale (agi) in un laboratorio segreto, nessuno sa che sta arrivando, e poi all'improvviso rilasciarla nel mondo in modo che la gente debba dire, hum, eccoci qui, quindi. ..

trevor:

pensi che dobbiamo adattarci gradualmente ad essa e crescere con essa come tecnologia?

sam:

sì.

quindi la conversazione attuale, dove la società, i nostri leader e le nostre istituzioni stanno effettivamente utilizzando queste tecnologie per avere un'idea di cosa può fare, cosa non può fare, dove sono i rischi, quali sono i benefici, penso sia grandioso. penso che in un certo senso forse la cosa migliore che abbiamo fatto per la nostra missione è stata ripetere la nostra strategia di implementazione. avremmo potuto costruirlo in segreto e impiegare più anni a costruirlo e poi a lanciarlo tutto in una volta, il che sarebbe stato terribile.

trevor:

oggi siamo entrati nell'edificio openai, che è un po' come una fortezza e sembra una futura casa. ho visto che c'era un post in cui si diceva che sei arrivato come ospite.

ho pensato, oh mio dio, è strano. è come tornare a casa, ma non a casa, ma pur sempre a casa.

sam:

dovrebbe sembrare un momento molto strano, come indossare un badge da ospite qui. ma sento che tutti sono esausti e pieni di adrenalina. non c’era davvero quella sensazione di grande momento che speravo. ci sono stati sicuramente alcuni momenti su cui vale la pena riflettere e raccontare quella giornata. ad esempio, uno dei momenti di cui sono più orgoglioso è stato quando ero molto stanco e distratto. pensavamo che il consiglio mi avrebbe riportato come ceo quel giorno, ma nel caso in cui non lo facessero, sono stato intervistato per un l3, la nostra posizione di ingegnere software di livello più basso, da una delle nostre persone migliori. poi mi ha dato una risposta certa. è stato un momento di grande orgoglio.

la parte che risalta nella mia memoria di quel giorno è che avevo ancora quell'abilità. anche se il distintivo non è così profondo come vorrei.

trevor:

mi piacerebbe sapere cosa pensi che io abbia fatto bene come ceo per ottenere il supporto che vediamo pubblicamente dai dipendenti di openai.

quando la cosa venne alla luce, non ti avrei chiesto dettagli perché sapevo che non avresti potuto commentare il contenuto dell'indagine interna. ma so che puoi parlare un po' dell'atmosfera generale dell'azienda e di cosa è successo ultimamente. raramente vediamo le cose svolgersi come openai. hai questa azienda e questa idea che, per la maggior parte delle persone sul pianeta, non è esistita nemmeno per un minuto. il minuto successivo, rilasci chatgpt. questo semplice messaggio, solo una piccola finestra di chat, cambia il mondo. penso che tu abbia raggiunto 1 milione di utenti nel tempo più veloce di sempre. penso che siano passati cinque giorni. sì, cinque giorni. poi ha raggiunto rapidamente i 100 milioni di persone.

molto rapidamente, lo so a livello aneddotico, per me questa cosa è passata dall'essere sconosciuta a tutti nel mondo. lo sto spiegando alla gente, cercando di farglielo capire. devo mostrarglielo come una poesia e come qualcosa di semplice che possano capire. poi la gente ha cominciato a parlarmene. ora è diventato un concetto onnipresente e le persone faticano a capire cosa sia e cosa significhi.

ma d’altra parte, c’è un’azienda che sta cercando di controllare e modellare in qualche modo il futuro. e le persone ti sostengono. abbiamo visto la storia, sam altman era fuori e non era più amministratore delegato. poi tutto è diventato turbolento. non so se hai visto alcune delle voci. sono semplicemente pazzi. una delle cose più folli che abbia mai visto è qualcuno che dice: questo è allo stesso tempo ridicolo e divertente. dicono, e lo so da fonti attendibili, che sam è stato licenziato per aver tentato di fare sesso con un'intelligenza artificiale.

sam:

non so nemmeno come rispondere. quando ho visto quel messaggio, ho pensato... immagino che a questo punto dovrei negarlo ufficialmente, semplicemente non è successo.

trevor:

penso che sia improbabile che ciò accada perché le persone non capiscono la combinazione dei due. ma ciò che mi colpisce è che il sensazionalismo di questo incidente sembra aver spinto openai sotto i riflettori in un momento diverso.

una delle cose più importanti è il supporto che ricevi dalla squadra, avere persone che si fanno avanti e dicono, qualunque cosa accada, sosterremo sam. questa situazione non è comune nelle aziende. spesso amministratori delegati e dipendenti sono in una certa misura disconnessi.

ma sembra più di una semplice squadra.

sam:

ciò che segue non è falsa modestia. ci sono molti posti in cui accetterei molti elogi. ma in questo caso, oltre ad esserne portavoce, non è tutta colpa mia. ma penso che ciò che sappiamo fare bene è che abbiamo la missione di convincere davvero le persone della sua importanza.

penso che quello che sta succedendo è che le persone si stanno rendendo conto che la missione, l'organizzazione, il team su cui lavoriamo così duramente e che fa così tanti progressi, ma c'è ancora molto altro da fare, è seriamente minacciato in questo modo. penso che questo sia ciò che ha scatenato la reazione. in realtà non riguarda me personalmente, anche se spero che piaccio alla gente e pensi che sto facendo un buon lavoro. riguarda la lealtà condivisa che proviamo tutti e il senso di responsabilità nel portare a termine le cose e, si spera, massimizzare le nostre possibilità di raggiungere quell'obiettivo.

trevor:

al livello più alto, quale pensi sia la missione? sta raggiungendo l’intelligenza artificiale generale?

sam:

lasciamo che i vantaggi dell’agi siano distribuiti quanto più ampiamente possibile e affrontiamo con successo tutte le sfide alla sicurezza.

trevor:

questo è un secondo punto interessante. mi piacerebbe chiacchierare con te più tardi per discutere più approfonditamente gli aspetti di sicurezza. se guardi openai come organizzazione, la sua nascita è davvero strana. sentiti libero di correggermi se sbaglio, ma sembra che sia stato fondato con una forte attenzione alla sicurezza. riunisci un gruppo di persone e dici: vogliamo avviare un'organizzazione, un'azienda, un collettivo che si dedichi alla creazione dell'intelligenza artificiale più etica a beneficio della società. puoi vederlo anche riflesso nella distribuzione dei profitti della società, nel modo in cui gli investitori ottengono i loro profitti e così via.

ma anche openai ad un certo punto è cambiata. pensi di poter resistere alle forze del capitalismo? voglio dire, ci sono così tanti soldi in gioco. pensi di poter davvero mantenere un mondo in cui il denaro non definisce cosa stai facendo e perché lo stai facendo?

sam:

questo deve essere un fattore. ad esempio, se si pensa solo al costo della formazione di questi sistemi, dobbiamo trovare un modo per competere, in mancanza di un termine migliore, in uno spazio capitalista. ma non credo che sarà la nostra motivazione principale. a proposito, adoro il capitalismo. penso che abbia enormi difetti, ma rispetto a qualsiasi altro sistema provato al mondo, penso che sia ancora la cosa migliore che abbiamo ideato. ma ciò non significa che non dovremmo sforzarci di fare meglio. penso che troveremo il modo di spendere l'enorme capitale da record di cui abbiamo bisogno per continuare a far avanzare l'avanguardia di questa tecnologia. questo è stato uno dei nostri primi insegnamenti. tuttavia, questa cosa è molto più costosa di quanto pensassimo.

sapevamo di avere questa idea per un sistema ampliato, ma non sapevamo come sarebbe andata.

trevor:

sei sempre stato un grande fan delle extension, ho letto questo di te. uno dei tuoi mentori, che ora è uno dei tuoi partner di investimento su injection, ha detto che ogni volta che fai una domanda a sam, la prima cosa che gli viene in mente è: come risolviamo questo problema? come lo risolviamo? la seconda cosa che continua dicendo è: come possiamo scalare queste soluzioni?

sam: chi l'ha detto? non ricordo. sono terribile con i nomi.

trevor: interessante. ma so che è stato qualcuno del tuo lavoro a dirlo.

sam:

interessante. ma non ho sentito nessuno dire una cosa del genere su di me.

ma penso che questa sia stata un'osservazione che ho fatto in molte aziende e settori diversi, è che la scala spesso porta a risultati sorprendenti. pertanto, il ridimensionamento massiccio di questi modelli di intelligenza artificiale porta a risultati molto sorprendenti. il ridimensionamento massiccio non solo lo rende migliore in tutti i modi ovvi, ma anche in alcuni modi non ovvi. ci sono vantaggi non evidenti nel ridimensionamento delle aziende. ci sono sottili vantaggi nel ridimensionare un’azienda come y combinator. non penso che questo venga preso sul serio.

nel nostro caso, è importante sapere quanto sia importante scalare nelle fasi iniziali. se avessimo pensato in modo più intelligente o avessimo avuto più coraggio, avremmo fatto mosse più grandi in primo luogo. ma è davvero difficile dire che costruirò un computer più grande da 10 miliardi di dollari. quindi non l'abbiamo fatto. siamo stati un po’ più lenti a capirlo di quanto avremmo dovuto, ma alla fine ce l’abbiamo fatta. ora vediamo di quanta scala abbiamo bisogno.

penso che il capitalismo sia bello. non ho nulla contro il sistema. no, non è vero. ho molte obiezioni a questo sistema, ma devo ammettere che non è stato ancora scoperto niente di meglio.

trevor: hai chiesto a chatgpt se potevano progettare un sistema?

sam: ho un approccio diverso...forse non sto progettando un nuovo sistema. sì. ma faccio molte domande su come l’intelligenza artificiale e il capitalismo si intersecano e cosa ciò significhi.

una delle cose è che avevamo ragione riguardo alla cosa più importante delle nostre ipotesi iniziali, ovvero che l’intelligenza artificiale sarebbe arrivata. l'apprendimento profondo è possibile... e, a proposito, molte persone ridono di questo. e' proprio così.

trevor: oh mio dio, siamo stati derisi senza pietà.

sam:

sì.

anche con alcune idee su come raggiungere questo obiettivo, abbiamo capito bene. ma ci sbagliavamo su molti dettagli, il che è comune e normale nella scienza. prima che entrassero in gioco i modelli linguistici, avevamo una visione molto diversa per la costruzione di questo sistema. all’epoca avevamo un concetto molto diverso di costruzione dell’agi. non avevamo l'idea che questo sarebbe stato uno strumento iterativo in costante miglioramento e con cui si sarebbe potuto parlare come un essere umano. quindi eravamo molto confusi su cosa avrebbe comportato la costruzione di un’agi. stiamo pensando al tempo prima e dopo l'agi. quindi è necessario consegnarlo ad altri sistemi e ad altre forme di governance.

ora penso che sia possibile e ne sono molto felice perché penso che sia più facile orientarsi. penso che possa essere, non voglio dire solo un altro strumento perché è diverso in molti modi, ma in un certo senso abbiamo creato un nuovo strumento per l'umanità. abbiamo aggiunto alcune cose alla casella degli strumenti. le persone faranno ogni genere di cose incredibili con esso, ma saranno comunque gli umani a pianificare il futuro, non qualche agi nel cielo. puoi fare cose che prima non potevi fare. posso anche fare cose che prima non potevo fare. possiamo fare di più. in questo senso, posso immaginare un mondo in cui realizziamo la nostra missione creando strumenti davvero validi che abbiano un grande impatto sulle capacità umane e non solo. sono molto entusiasta di questo.

ad esempio, mi piace il fatto che offriamo chatgpt gratuito e senza pubblicità. perché personalmente penso che la pubblicità sia sempre stata un problema su internet. ma abbiamo semplicemente messo a disposizione questo strumento. questo è lo svantaggio del capitalismo, sì, sì. uno di loro. personalmente penso che ci siano svantaggi più grandi, ma abbiamo messo a disposizione questo strumento e le persone possono usarlo gratuitamente. non vogliamo trasformarli in prodotti. non vogliamo che ne usino un po' di più. penso che questo mostri un percorso interessante in cui possiamo fare di più.

trevor:

quindi, facciamolo. ci sono molte cose che spero di trattare durante la nostra conversazione e ovviamente non saremo in grado di rispondere a tutte. ma ci sono alcune riflessioni, alcuni punti e alcune aree che spero potremo esplorare. immagino che la prima e più tempestiva domanda sia: cosa succederà in futuro per l'azienda? dove pensi che andrà? una cosa che trovo particolarmente interessante è la composizione del nuovo consiglio, soprattutto per openai, dove prima c'erano donne nel consiglio e ora non ci sono, e prima non c'erano incentivi finanziari per i membri del consiglio e ora ci sono. mi chiedo se sei preoccupato che quella protezione che hai contribuito a mettere in atto ora sia scomparsa e che tu abbia un consiglio che non si concentra più sulla protezione delle persone o sulla definizione di un futuro più sicuro, ma un consiglio che si concentra sul fare soldi e diventare il più grande e forte possibile?

sam:

credo che le nostre strutture di governance e i nostri consigli di amministrazione attuali e precedenti non funzionino in alcuni modi importanti. quindi sostengo pienamente l’identificazione di modi per migliorare e sosterrò il consiglio e il loro lavoro per raggiungere questo obiettivo.

chiaramente, il consiglio ha bisogno di crescere e diversificarsi, e penso che ciò avverrà rapidamente. dobbiamo ascoltare le voci di coloro che parleranno a nome di coloro che tradizionalmente non sono stati sostenuti, e non solo pensare con molta attenzione alla sicurezza dell’ia, ma anche imparare dalle lezioni del passato su come costruire interazioni con tutti aspetti della società si tratta di sistemi molto complessi. è necessario rappresentare tutti coloro che svolgono il miglior lavoro possibile mitigando gli effetti negativi e condividendo i benefici.

quindi, sono felice di avere una seconda possibilità per sistemare tutte queste cose che ovviamente avevamo sbagliato prima. cose come la diversità, assicurarci di rappresentare tutti i principali gruppi di stakeholder che devono essere rappresentati, capire come renderlo più democratico, continuare a spingere il governo a prendere alcune decisioni per governare questa tecnologia. so che non è perfetto, ma penso che sia meglio di qualsiasi altra cosa possiamo pensare attualmente. è importante interagire maggiormente con la nostra comunità di utenti e consentire loro di contribuire a stabilire i limiti attorno all'uso di questa tecnologia.

una delle principali direzioni future sarà quella di espandere il consiglio di amministrazione e la struttura di governance. ancora una volta, so che il nostro attuale consiglio di amministrazione è piccolo, ma penso che siano molto impegnati in tutte le cose di cui hai appena parlato.

e poi c'è un'altra grande categoria di domande. se me lo aveste chiesto una settimana fa, avrei detto che stabilizzare l’azienda era la mia massima priorità. ma almeno internamente mi sento abbastanza bene. non abbiamo perso un cliente, non abbiamo perso un dipendente. continuiamo a crescere, il che è davvero sorprendente. continuiamo a introdurre nuovi prodotti. le nostre partnership chiave si sentono rafforzate, non ostacolate. a questo proposito, tutto è andato secondo i piani. e penso che i piani di ricerca e di prodotto per la prima metà del prossimo anno siano migliori e più mirati che mai.

trevor:

mi ritrovo sempre a pensare a te come persona quando succede tutta questa faccenda del consiglio d'amministrazione. ogni volta che c'è una tempesta, sono sempre interessato a cosa succede al centro della tempesta. sono curioso, dov'eri quando è scoppiato tutto questo? cioè, cosa stavi facendo? cosa sta succedendo nel tuo mondo a livello personale?

sam:

il motivo per cui rido è perché quello che la gente dice di me è che mi sento come se fossi nell'occhio di un uragano e tutto gira intorno a me e sono ancora molto calmo. questa volta le cose non sono andate come previsto.

è un'esperienza, come essere al centro di una tempesta, ma non tranquilla. ero a las vegas a guardare una gara di f1.

trevor: sei un fan della f1?

sam: lo sono.

trevor: quale squadra tifi? hai un preferito in particolare?

sam:

ad essere sincero, penso che verstappen sia così bravo che è difficile dire quale squadra tifare. ma penso che questa sia probabilmente la risposta che tutti direbbero.

trevor:

in realtà dipende da quando hanno iniziato a prestare attenzione al movimento. sono un fan di schumacher perché è da allora che ho iniziato a guardare le gare. prima è stato nigel mansell, poi ayrton senna, capisci cosa intendo?

verstappen è molto preciso e capisco perché è così popolare.

sam:

anche se sono un po' stanco di vederlo vincere così tante volte, è davvero fantastico.

quella notte sono arrivato giovedì tardi. qualcuno si è dimenticato di saldare un tombino, così al primo giro è esploso, come fosse scoppiato un motore ferrari, provocando la sospensione delle prove. non sono riuscito a vedere la partita, non ho visto nessuna azione per tutto il fine settimana.

ho ricevuto una chiamata nella mia camera d'albergo, non avevo idea di cosa sarebbe successo e sono stato licenziato dal consiglio di amministrazione. sembrava un sogno e mi sentivo confuso. tutto era confuso e non sembrava reale. era ovviamente triste e doloroso, ma l'emozione dominante in quel momento era la confusione e mi sentivo come se fossi nella nebbia e nel fumo. non ho assolutamente idea di cosa stia succedendo.

il modo in cui ciò è accaduto non ha precedenti, è stato pazzesco. nella mezz'ora successiva, il mio telefono ha ricevuto così tanti messaggi che imessage si è bloccato. questi messaggi provenivano da tutti e il telefono è diventato completamente inutilizzabile poiché le notifiche continuavano ad apparire. imessage è arrivato a un punto in cui si è fermato per un po', i messaggi sono stati ritardati e poi tutti i messaggi sono stati contrassegnati come letti, quindi non potevo nemmeno dire con chi stavo parlando, era il caos.

stavo parlando con la squadra qui, cercando di capire cosa stesse succedendo. ad esempio, anche microsoft è al telefono e anche altre parti sono in contatto. l'intera situazione era davvero inquietante e non sembrava reale. mi sono calmato un po’ e ho iniziato a pensare al futuro. voglio davvero lavorare sull'agi (intelligenza generale artificiale). se non riesco a farlo all'inizio, continuerò comunque a provarci. sto pensando all'approccio migliore.

greg se ne andò, alcune altre persone se ne andarono e io cominciai a ricevere una marea di messaggi da persone che volevano lavorare con me. a quel tempo, tornare a openai era completamente fuori di testa. posso immaginare cosa mi riserva il futuro, ma non capisco quanto sia grande un evento del settore perché non guardo davvero le notizie. posso solo sentire l'enorme quantità di messaggi ricevuti.

trevor:

perché sei letteralmente nel mezzo di una tempesta.

sam:

sì. voglio solo supportare openai, capire cosa fare dopo, provare a capire cosa sta succedendo. poi sono tornato in california, ho incontrato alcune persone e ho iniziato a sentirmi molto concentrato sul futuro. ma auguro anche il meglio a openai. per quasi tutta la notte si è dormito poco e si è parlato molto allo stesso tempo. quello che seguì fu un fine settimana pazzesco. sono sicuro di non aver ancora fatto i conti con tutto questo e sono ancora un po’ scosso e sto ancora cercando di raccogliere i pezzi. sono sicuro che mi sentirò di più a riguardo quando avrò il tempo di sedermi ed elaborarlo.

trevor:

ti senti come se dovessi tornare indietro in tutto in una volta? perché, secondo te, sei in questa missione. puoi vedere la spinta nei tuoi occhi e il mondo ha raggiunto un punto di non ritorno. stai andando in una certa direzione e all'improvviso sembra che tu non possa realizzarla nel campo in cui ti trovi. ma come hai detto tu, microsoft è intervenuta e satya nadella ha detto: vieni a lavorare con noi e ricostruiremo la squadra.

se c'è una cosa su cui le persone concordano su sam altman, è che è tenace. è intransigente e crede che se hai un obiettivo e credi in qualcosa, non dovresti lasciare che la vita ti intralci. e sembra che tu stia andando in quella direzione. non hai detto nulla pubblicamente su openai né lo hai denigrato in alcun modo. ma sembra che questo ti stia mettendo molta pressione.

sam:

certamente. non penso che sia qualcosa da cui non riesco a riprendermi, ma penso che sarebbe impossibile affrontare tutto questo senza esserne influenzato, sarebbe molto strano.

trevor:

ti senti come se avessi perso una parte di te stesso?

sam:

sì. abbiamo avviato openai alla fine del 2015. il primo giorno di lavoro è iniziato effettivamente nel 2016.

lo faccio su yc da un po', ma dall'inizio del 2019 lo faccio a tempo pieno. l’agi e la mia famiglia sono le due cose a cui tengo di più. quindi perdere uno di questi, per me, in un certo senso, dovrei dire, mi ha reso più impegnato nell'agi e più interessato alla missione. ma ovviamente ho a cuore anche questa organizzazione, queste persone, i nostri utenti, i nostri azionisti e tutto ciò che costruiamo qui. quindi è stato davvero doloroso.

l'unica esperienza di vita a cui posso paragonarla è la morte di mio padre, il che ovviamente è stato molto peggio. è stata una cosa molto improvvisa, quella sensazione di confusione e perdita. in quel caso, sentivo di avere un po’ di tempo per assimilare tutto. ma c’era molto altro in arrivo ed è stato così inaspettato che ho dovuto raccogliere i pezzi della sua vita per un po’. è stato solo circa una settimana dopo che ho avuto davvero il tempo di respirare e pensare, oh mio dio, non posso credere che stia succedendo. quindi sì, è decisamente molto peggio. ma qui ci sono echi simili.

trevor:

mentre guardi al futuro dell’azienda e al tuo ruolo al suo interno, come trovi l’equilibrio in questo momento tra spingere avanti l’ia aperta e continuare a muoverti nella direzione in cui credi? hai ancora i freni di emergenza? esiste una sorta di sistema all'interno dell'azienda secondo cui quando ritieni che stiamo creando qualcosa che potrebbe avere un impatto negativo sulla società, interveniamo e fermiamo quel comportamento. hai questa capacità? e questo sistema è integrato?

sam:

sì, naturalmente. abbiamo avuto un sistema simile in passato. ad esempio, creiamo alcuni sistemi ma scegliamo di non implementarli. credo che lo faremo di nuovo in futuro. oppure creiamo un sistema e diciamo: ehi, abbiamo bisogno di un po' più di tempo per renderlo sicuro prima di poterlo implementare. come nel caso di gpt-4, ci sono voluti quasi otto mesi per completare la formazione prima di essere pronti a rilasciarlo, con tutti i test di allineamento e sicurezza. ricordo di aver parlato con alcuni membri del team e questa non era una decisione del consiglio, si trattava di persone qui che facevano il loro lavoro e si impegnavano nella nostra missione. quindi questo continuerà.

ciò di cui sono molto orgoglioso di questa squadra è la loro capacità di funzionare bene in mezzo al caos, alla crisi, all’incertezza e allo stress. dò loro un a+, hanno fatto un ottimo lavoro. man mano che ci avviciniamo a sistemi più robusti, molto robusti, penso che la cultura e l'abilità dei team che costruiamo siano probabilmente l'elemento più importante, come mantenere la calma in una crisi e prendere decisioni buone e ponderate. penso che la squadra qui abbia davvero dimostrato di poterlo fare, il che è davvero importante.

qualcuno ha detto che una delle cose che abbiamo imparato su openai è che sam potrebbe gestire l'azienda senza avere una qualifica lavorativa. penso che sia completamente sbagliato e semplicemente non vero. la lezione giusta era che l’azienda poteva funzionare senza di me. questa è una questione culturale e la squadra è pronta e la cultura è pronta. ne sono molto orgoglioso e davvero entusiasta di tornare e continuare a farlo.

guardare la squadra gestire tutto mi aiuta a dormire meglio la notte mentre affrontiamo le sfide future. ci saranno sfide più grandi di questa in futuro, ma spero e credo che questa sia la più difficile perché siamo impreparati. ora ci rendiamo conto dell'importanza, non siamo solo un'azienda qualunque, tutt'altro.

trevor:

parliamo di questo. chatgpt, openai, come verrà chiamato. hai dall·e, hai whisper e tutti questi fantastici prodotti. se hai qualche idea sui nomi dei marchi o sull'architettura del marchio, sarei molto interessato. sento che chatgpt lo ha fatto e ora è ovunque. sì, è un nome terribile, ma potrebbe essere diventato troppo comune per essere cambiato. pensi che si possa cambiare in questo momento? possiamo semplificarlo in gpt o semplicemente chattare?

sam:

non lo so, forse no.

trevor:

a volte ho la sensazione che un prodotto, un nome o un'idea trascendano i sogni degli esperti di marketing e le persone li abbracciano.

sam:

nessun esperto di marketing sceglierebbe chatgpt come nome per questo, ma probabilmente siamo bloccati e probabilmente va bene.

trevor:

ora sono affascinato dalla sua natura multimodale. ricordo ancora quando vidi uscire dall·e per la prima volta, era solo un'idea, e ho visto come funzionava e ho visto che questo programma poteva creare un'immagine dal nulla. provo a spiegarlo alle persone e loro mi chiedono: da dove viene quell'immagine? ero tipo, non c'è nessuna foto, nessuna immagine originale. pensano che sia impossibile.

ha visto qualcosa che, pensavo in quel momento, era difficile da spiegare. a volte anche io faccio fatica a capirlo. ma quando guardiamo al mondo in cui viviamo attualmente, ne parliamo in numeri, gpt 3.5, gpt 4, gpt 5, 6, 7, qualunque esso sia. mi piace parlare di più dei casi d'uso reali del prodotto in un modo che tolga il gergo tecnico.

tra i diversi prodotti, da chatgpt 3, 3.5 a 4, vediamo che le cosiddette capacità di ragionamento raggiungono un livello superiore e dimostrano anche in una certa misura creatività.

quando guardo i prodotti in questo mondo che stai creando ora, come modelli linguistici di grandi dimensioni per scopi generali e ora modelli linguistici di grandi dimensioni specializzati, mi chiedo, pensi che i casi d'uso cambieranno radicalmente? pensi che adesso potrebbe essere una specie di piccolo chatbot, quello che piace a tutti, ed è questa la forma finale del prodotto? o pensi che il mondo diventerà un mondo in cui tutto avrà un gpt specializzato? ad esempio, trevor avrà un gpt che fa delle cose per lui, oppure una determinata azienda avrà un gpt che fa delle cose per loro. cosa ne pensi di questo problema?

ovviamente, prevedere il futuro è difficile. ma da dove siamo adesso, dove vedi che andrà?

sam:

penso che sarà un mix dei due. è davvero difficile prevedere il futuro e potrei sbagliarmi, ma sono comunque disposto a provarci. penso che sarà un mix delle due cose che hai appena menzionato. innanzitutto, il modello base sarà così buono che è difficile per me dire con certezza che c'è qualcosa che non può fare. ci vorrà molto tempo, ma penso che ci stiamo muovendo in quella direzione.

trevor:

quanto è lungo il tuo arco temporale? ad esempio, come lo misuri?

sam:

non nei prossimi anni. migliorerà ogni anno per i prossimi anni. ma come stavo per dire, sono abbastanza sicuro che entro il 2026 ci saranno ancora molte cose che questo modello non potrà fare.

trevor:

ma questo modello non continua a sorprenderti? quando parlo con gli ingegneri che lavorano in questo ambito, o con chiunque sia coinvolto o correlato all'intelligenza artificiale, la parola che viene fuori di più è "sorpresa". le persone continuano a dire che lo insegnano, pensando che chatgpt stia imparando sul campo. all'improvviso inizia a parlare una nuova lingua, o pensavamo di insegnargli questa, e all'improvviso sta costruendo ponti, quel genere di cose.

sam:

pertanto, l’esperienza soggettiva della maggior parte delle persone qui è probabilmente tra il 2019 e il 2022. ma ora penso che abbiamo imparato a smettere di essere sorpresi. al giorno d’oggi la nostra fiducia è cresciuta in modo esponenziale e la maggior parte delle persone la pensa così. quindi, gpt-5, comunque lo chiamiamo, eccellerà sotto molti aspetti. rimarremo sorpresi da alcune delle cose specifiche che può fare, e saremo sorpresi anche da ciò che non può fare. nessuno sarà sorpreso da quanto sia bello. a questo punto, penso che abbiamo una comprensione davvero profonda di questo.

la seconda cosa che hai menzionato sono questi gpt personalizzati. ancora più importante, hai menzionato anche gpt personale, come trevor gpt. penso che questa sarà una grande tendenza nei prossimi anni. questi modelli impareranno a conoscerti, accederanno ai tuoi dati personali, risponderanno alle domande nel modo desiderato e lavoreranno nel tuo ambiente in modo molto efficiente. penso che molte persone lo vorranno.

trevor:

mi viene quasi da chiedermi, se il nuovo mercato del lavoro diventa che il tuo gpt è quasi il tuo curriculum, il gpt è quasi in un modo strano più prezioso di te. capisci? è come una combinazione di tutto ciò a cui pensi e di tutto ciò a cui hai mai pensato, e il modo in cui sintetizzi le tue idee, più il tuo gpt personale diventa... sto solo pensando a un futuro pazzesco, quando andrai in un lavoro, ti chiedono, qual è il tuo gpt? e tu dici, okay, questo è mio.

sam:

pensiamo sempre a queste agenzie, a queste agenzie personalizzate, lascerò che questa cosa faccia le cose per me. ma è interessante quello che dici a riguardo se non è così ma come le altre persone interagiscono con te. giusto. è come un'impressione di te, un tuo avatar, un'eco di te, ecc. lo vedevo arrivare a quel punto.

trevor:

perché se non siamo una combinazione di tutto ciò che siamo, allora cosa siamo? è un'idea strana, ma posso crederci. sono sempre stato affascinato da dove può arrivare e cosa può fare.

sai perché? quando chatgpt è esploso nelle prime settimane, non dimenticherò mai con quanta rapidità le persone si sono rese conto che la rivoluzione dei robot, so che non erano robot, ma per le persone, erano come, la rivoluzione dei robot, le macchine non stavano sostituendo cosa pensavano lavori che verranno sostituiti. sapete, la gente pensava che avrebbe sostituito i camionisti e così via. tuttavia, abbiamo scoperto che no, questi lavori sono in realtà più difficili da sostituire. in effetti, i lavori che vengono sostituiti dai cosiddetti “lavori cerebrali” sono quelli, come il lavoro dei colletti bianchi. sei un avvocato? bene, quando hai chatgpt 5, 6, 7, come lo chiami, potresti non aver bisogno di tanti avvocati. sei un ingegnere e ti chiedi, qual è il tuo posto... il corpo umano è davvero una cosa straordinaria.

pensi che ci siano dei progressi che potrebbero sostituire il corpo umano? oppure siamo ancora nel regno spirituale?

sam:

no, penso che alla fine riusciremo a far funzionare i robot, come funzioneranno prima o poi i robot umanoidi. ma ci stavamo lavorando nelle prime fasi di openai, avevamo un progetto di robotica. non lo so.

sappiamo di aver costruito una mano robotica in grado di manipolare il cubo di rubik come una mano. ciò richiede molta flessibilità. penso che siano coinvolte molte intuizioni diverse, ma una di queste è che è molto più facile fare progressi in un mondo di bit che in un mondo di atomi.

ad esempio, questo robot è difficile da costruire, ma per le ragioni sbagliate. la difficoltà non è che ci aiuta ad avanzare su alcune spinose questioni di ricerca, ma che il robot continua a rompersi, non è molto preciso e i simulatori sono terribili. mentre con un modello linguistico puoi fare tutte queste cose in un ambiente virtuale, puoi progredire molto più velocemente. quindi, concentrarsi sull’aspetto cognitivo ci aiuta a risolvere più velocemente i problemi più produttivi.

ma è anche un aspetto molto importante, e penso che risolvere i compiti cognitivi sia il problema più importante. ad esempio, se costruisci un robot, non necessariamente capirà come aiutarti a costruire un sistema che esegua compiti cognitivi. ma se crei un sistema in grado di svolgere compiti cognitivi, può aiutarti a capire come realizzare un robot migliore.

sì, ha senso. quindi penso che la cognizione sia la cosa fondamentale su cui vogliamo concentrarci. penso che questa sia la decisione giusta. spero che potremo tornare alla robotica, però.

trevor:

ti sei mai chiesto quando penseresti che l’intelligenza artificiale generale sarà stata raggiunta? tipo, come lo sappiamo? per me personalmente? ad esempio, quando sento che il compito è stato completato?

sam:

perché tutti parlano di intelligenza artificiale in generale, ma io mi chiedo: come facciamo a sapere di cosa si tratta? quindi torniamo al punto precedente, ognuno ha una definizione diversa. personalmente te lo dirò quando sarò super emozionato. sono davvero entusiasta quando abbiamo un sistema che aiuta a scoprire nuova fisica. ma questo sembra ben oltre l’intelligenza generale. sembra, capisci cosa intendo? questo va oltre ciò che penso che la maggior parte delle persone definirebbe.

trevor:

forse è perché a volte mi chiedo: come definiamo l'intelligenza generale? lo definiamo genio in un certo campo? o come un bambino che è un'intelligenza artificiale generale? questo è sicuro. ma devi continuare a programmarlo, e quando nascono non possono parlare, non possono camminare, non sanno niente. e continui a programmare questa agi per portarla dove deve andare.

quindi se, diciamo, arrivi al punto in cui hai una versione di un bambino di quattro anni.

sam:

e se avessimo un sistema che potrebbe essere come questo, appena scoperto, in grado di operare autonomamente, con l'aiuto dei genitori, e di comprendere il mondo come fa un bambino di quattro anni? sì, possiamo chiamarla agi. se potessimo effettivamente affrontare questa capacità universale, potremmo capirlo da soli quando sorgono nuovi problemi. i bambini di quattro anni non sempre capiscono le cose perfettamente, ma ormai evidentemente le abbiamo capite.

trevor:

possiamo arrivare a quel punto senza comprendere a fondo la natura del pensare e del pensare? sembra possibile. pensi che possiamo arrivare a quel punto? penso che sia ok. oppure possiamo arrivare a... quindi sono sicuro che lo sai.

una delle mie storie preferite nel campo dell'intelligenza artificiale è un progetto presso microsoft. hanno un'intelligenza artificiale che cerca di imparare a identificare i volti maschili e femminili, ed è molto accurata, circa il 99,9%. tuttavia, è sempre stato scarsamente rappresentato quando si tratta di persone di colore e soprattutto di donne di colore, scambiandole costantemente per uomini. i ricercatori cercano sempre di migliorare e pensano sempre: cosa sta succedendo?

per un po' è così che ho raccontato la storia. potrebbe essere un po' impreciso, ma l'ho trovato interessante. c'è stato un tempo in cui "inviavano" l'intelligenza artificiale in africa, penso che fosse il kenya. hanno inviato l’intelligenza artificiale in africa e poi hanno detto al gruppo di ricerca in kenya, avrebbero potuto usarla per un po’ per cercare di risolvere questo problema? quando questa intelligenza artificiale è stata gestita da quella parte del mondo, con i loro set di dati e i volti africani, è diventata sempre più precisa nell’identificare le donne nere in particolare.

ma alla fine, hanno scoperto che l’intelligenza artificiale non conosceva mai la differenza tra i volti maschili e quelli femminili. tutto ciò che fa è tracciare correlazioni tra i trucchi. di conseguenza, l’intelligenza artificiale ha stabilito che la persona con le labbra rosse, le guance rosa e forse le palpebre blu era una donna, e gli altri erano uomini. i ricercatori dicono che sì, hai ragione. ha appena trovato quello che viene chiamato "cheat code", sai. è come se capissi quali sono i tuoi standard per uomini e donne, e poi è differenziato da quegli standard.

e poi si sono resi conto che, poiché le donne nere sono generalmente svantaggiate quando si tratta di trucco, non si truccano molto, quindi il sistema semplicemente non lo sa. ma non sappiamo che il sistema non lo sa. quindi stavo pensando, come facciamo a sapere se l'agi sa o non sa qualcosa? oppure scopriremo che in qualche modo ha semplicemente imbrogliato per arrivare alla risposta? come lo sappiamo?

quando questa incertezza si intreccia con così tanti aspetti della nostra vita, qual è il costo della nostra ignoranza? capisci?

sam:

credo che faremo progressi nella comprensione di cosa stanno facendo questi sistemi. attualmente l’interpretabilità ha fatto alcuni progressi. questa è un’area di ricerca su questi modelli e ci sono diversi modi e diversi livelli in cui questa ricerca può essere condotta. puoi provare a capire cosa sta facendo ciascun neurone artificiale nel sistema, oppure puoi osservare come il sistema pensa passo dopo passo e vedere con quali passaggi non sei d'accordo. ne scopriremo di più.

la capacità di comprendere cosa stanno facendo questi sistemi e, si spera, di spiegarci perché raggiungono determinate conclusioni, e di farlo in modo accurato e robusto. penso che faremo progressi non solo nella comprensione di come questi sistemi fanno quello che fanno, ma anche nel capire come il nostro cervello fa quello che fa. quindi penso che alla fine lo capiremo. sono curioso e sono sicuro che lo sei anche tu.

a mio parere, faremo ulteriori progressi nell’implementazione di metodi che sappiamo funzionare per rendere questi sistemi sempre migliori e aiutarci a risolvere la sfida della spiegabilità. e penso che man mano che questi sistemi diventeranno più intelligenti, verranno ingannati meno spesso. pertanto, un sistema più complesso potrebbe non fare tali distinzioni cosmetiche e potrebbe apprendere a un livello più profondo. penso che stiamo vedendo alcune prove di ciò che sta accadendo.

trevor:

mi hai fatto pensare a due cose quando hai detto che non è facile lasciarsi ingannare. uno è l'aspetto della sicurezza e l'altro è l'aspetto della precisione. i media ne hanno parlato. ti ricordi, hanno detto, l'intelligenza artificiale aveva le allucinazioni, pensava che mi avrebbe ucciso. trovo particolarmente interessante il fatto che alle persone piaccia usare la parola "pensare" per descrivere modelli linguistici di grandi dimensioni. perché ho sempre la sensazione che i giornalisti dovrebbero cercare di capire cosa sta facendo prima di riferirlo. ma quando usano molto la parola "pensare", in realtà danno al pubblico un malinteso. ho simpatia per questo.

sam:

dobbiamo usare termini familiari, dobbiamo personificare. ma sono d'accordo con te che questo è fuorviante.

trevor:

perché stai dicendo che sta pensando, e poi la gente penserà, sta pensando di uccidermi? non è così, non è pensare, è solo usare questo magico trasformatore per capire quali parole hanno maggiori probabilità di combaciare tra loro.

sam: cosa pensi di fare?

trevor:

cosa sto facendo? questa è una domanda interessante questo è quello che sto dicendo, è l'idea che abbiamo messo insieme.

parliamo di "allucinazioni". vorrei iniziare con la prima metà. pensi che possiamo raggiungere l’obiettivo di rendere l’intelligenza artificiale non allucinante?

sam:

penso che la domanda migliore sia: possiamo garantire che un'intelligenza artificiale non abbia allucinazioni quando non vogliamo, con una frequenza simile a quanto spesso gli esseri umani non hanno allucinazioni. a questo, la mia risposta è sì. ma in realtà, una delle cose che le persone amano di questi sistemi è la loro capacità di fare cose nuove. se solo fosse... sì, l'allucinazione è sia una caratteristica che un bug.

trevor:

e' quello che stavo proprio chiedendo. l'allucinazione non fa parte dell'esistenza intelligente?

sam:

totalmente.

se pensi, ad esempio, al modo in cui lavora un ricercatore di intelligenza artificiale, esamina molti dati, ha alcune idee, legge molte cose e poi inizia a pensare, forse questo o quello. forse dovrei provare questo esperimento. ora ho i dati. quindi non funziona del tutto. ora mi verrà in mente questa nuova idea.

questa capacità umana di elaborare nuove ipotesi, nuove spiegazioni, non è mai esistita prima, e la maggior parte di esse sono sbagliate, ma poi c'è un processo e un ciclo di feedback per capire quali potrebbero avere senso e alla fine hanno senso. questo è uno degli elementi chiave del progresso umano.

trevor:

come possiamo impedire all'intelligenza artificiale di avere input e output spazzatura? attualmente l’intelligenza artificiale lavora su informazioni create in qualche modo dagli esseri umani. è imparare da materiale che riteniamo possa essere appreso. con tutte le novità in uscita adesso, come open ai, anthropic, lambda, ecc., sembra che potremmo entrare in un mondo in cui più informazioni vengono generate dall'intelligenza artificiale che dagli esseri umani, e tali informazioni potrebbero non ricevere l'esame accurato che meritano.

quindi l’intelligenza artificiale migliora quando impara da se stessa in un modo che non può essere censurato? capisci?

sam:

capisco perfettamente.

come risolviamo questo problema? ciò risale alla questione di sapere come comportarsi in diverse situazioni. ad esempio, vuoi un po' di fantasia nel processo creativo, ma non vuoi quella fantasia quando cerchi di riportare i fatti accurati di un evento. e ora questi sistemi possono generare nuove immagini che sono belle in un senso importante, immagini che sono in qualche modo fantasy, ma buone fantasie. ma ancora una volta le cose sono migliorate molto quando si vuole che il sistema fornisca solo fatti, ma c’è ancora molta strada da fare in questo senso.

non importa. penso che sia una buona cosa se questi sistemi vengono addestrati sui propri dati generati, purché ci sia un processo attraverso il quale questi sistemi apprendono quali dati sono buoni e quali sono cattivi. ancora una volta, "allucinazione" non è una descrizione sufficiente di questo processo, perché se desse origine a nuove idee scientifiche, queste idee potrebbero inizialmente essere considerate "allucinazioni". questo è prezioso.

ma sai cosa è bene e cosa è male. e deve esserci una supervisione umana sufficiente per garantire che tutti noi continuiamo ad avere il controllo collettivo su dove vanno queste cose. ma entro questi limiti, penso che sia molto positivo che il sistema venga addestrato utilizzando i dati generati, e i sistemi futuri faranno lo stesso.

e poi mi hai ricordato un'altra cosa a cui stavo pensando, non so bene come calcolarlo, ma mi chiedo se, per esempio, un sistema come gpt-5 o 6 sarà prima o poi in grado di generare più parole di un essere umano tutta la storia messa insieme. sembra un traguardo importante.

in realtà, forse non ha importanza che lo dica adesso.

trevor:

in che modo è stato generato?

sam:

ad esempio, il modello genera più parole in un anno di tutta l’umanità. ci sono otto miliardi di persone nel mondo, o qualunque sia il numero. puoi calcolare il numero medio di parole pronunciate all'anno.

ma la domanda è: dove ci porta questo? ecco perché sono rimasto sorpreso dopo averlo detto. per qualche motivo questo mi sembra un traguardo importante, ma non riesco a pensare a un motivo specifico per cui.

trevor:

forse gli esseri umani sono come le scimmie che scrivono continuamente. quindi, penso che valga la pena esplorarlo.

sam:

ma non uso la parola “pensare” perché penso che tu abbia ragione e non dovresti usare questa parola. forse possiamo dire il numero di parole generate dall’intelligenza artificiale rispetto al numero di parole generate da tutti gli esseri umani.

trevor:

sto per finire. quindi voglio fare alcune domande e, se non le faccio, la gente mi ucciderà.

una delle domande principali, e questa è la mia domanda personale, è che parliamo sempre di apprendimento dell'intelligenza artificiale dai dati, che vengono inseriti in set di dati. e' di questo che stiamo parlando. ecco perché servono supercomputer da miliardi di dollari affinché i computer possano imparare.

come possiamo insegnare all’intelligenza artificiale a pensare meglio di chi le fornisce dati ovviamente imperfetti? ad esempio, come fa l’intelligenza artificiale ad apprendere oltre i dati limitati che ci vengono forniti? quando si tratta di razza, status economico e percezioni, poiché siamo limitati, come insegniamo a non essere limitati dai dati limitati che ci vengono forniti?

sam:

non lo sappiamo ancora, ma è una delle più grandi direzioni di ricerca davanti a noi, come superare i dati umani. spero che se rifacciamo questa domanda e risposta tra un anno, sarò in grado di dirti la risposta, ma non lo so ancora. non sapevamo che fosse davvero importante.

tuttavia, credo che questa sarà una forza importante nella lotta contro l’ingiustizia nel mondo. non penso che questi sistemi avranno quei profondi difetti che condividono tutti gli esseri umani. potranno essere resi molto meno razzisti, sessisti e pieni di pregiudizi. diventeranno una forza per la giustizia economica nel mondo.

penso che fornire un buon mentore o un buon consulente medico per l’ia aiuta la metà più povera del mondo più che solo la metà più ricca, anche se aiuta a sollevare tutte le persone.

quindi non ho una risposta chiara alla domanda scientifica che sollevi, ma a questo punto credo che questi sistemi certamente possano, e dobbiamo fare un duro lavoro sociale per renderli una realtà, ma hanno la capacità potenziale per essere estremamente la terra promuove la giustizia nel mondo.

trevor:

forse questo porta perfettamente alla seconda domanda, ovvero: cosa stai facendo? cosa sta facendo openai? stai considerando qualche misura per mitigare il divario tra ricchi e poveri che questa nuova tecnologia sta ancora una volta creando?

l’emergere di ogni nuova tecnologia è sorprendente per la società nel suo insieme, ma non si può negare che creerà un momento in cui se ce l’hai, avrai tutto. e se non lo fai, sei fuori.

sam:

penso che impareremo di più col tempo, ma in questo momento penso che una delle cose veramente importanti che facciamo sia fornire un servizio veramente gratuito. ciò significa nessun supporto pubblicitario, ma solo un servizio gratuito utilizzato da oltre 100 milioni di persone ogni settimana. ed è difficile dirlo a chiunque, perché in alcuni paesi siamo ancora bloccati o siamo ancora bloccati, ma stiamo cercando di rendere un servizio davvero di alta qualità e facile da usare, accessibile a chiunque ovunque sia possibile. intelligenza artificiale gratuita, che è importante per ognuno di noi.

penso che ci siano altre cose che vogliamo fare con questa tecnologia. ad esempio, se possiamo usare l’intelligenza artificiale per curare le malattie e rendere tali cure disponibili al mondo, ciò è ovviamente vantaggioso, ma mettere questo strumento nelle mani di quante più persone possibile e lasciare che lo usino per costruire il futuro è molto importante. e penso che possiamo spingerci ancora oltre.

trevor: altre due domande.

sam: posso aggiungerne un altro?

trevor: il tempo è tutto tuo.

sam:

un'altra cosa che penso sia importante è chi ha l'autorità di decidere cosa questi sistemi dicono, non dicono, fanno e non fanno, chi stabilisce questi limiti. in questo momento, sono fondamentalmente i dipendenti di openai a prendere le decisioni, e nessuno direbbe che sia una rappresentazione equa del mondo. quindi, non solo capire come democratizzare questa tecnologia, ma anche capire come democratizzare la governance di questa tecnologia, questa sarà una grande sfida per noi il prossimo anno.

trevor:

questo si collega perfettamente a quello che stavo per chiederti, l'aspetto sicurezza di tutto questo. ne abbiamo parlato all'inizio della nostra conversazione. quando progetti qualcosa che cambia il mondo, devi riconoscere il fatto che potrebbe cambiare il mondo nel modo peggiore o nella direzione peggiore. con ogni progresso tecnologico aumenta anche la capacità di causare danni sempre maggiori.

è possibile rendere l’ia completamente sicura? e poi la seconda parte è: qual è il tuo scenario da incubo? cosa ti spingerebbe a premere un pulsante rosso per chiudere openai e tutta l'intelligenza artificiale? quando te ne andrai, lo saprai, se è così, se può succedere, dobbiamo chiudere tutto. di cosa hai paura?

la prima domanda è: puoi tenerlo al sicuro? la seconda parte è: qual è la tua scena più spaventosa?

sam:

penso, prima di tutto, che l’intuizione che hai menzionato, secondo cui il numero di persone capaci di causare danni catastrofici diminuisce ogni decennio circa, sia un fatto profondo che noi come società dobbiamo affrontare.

in secondo luogo, non penso che si tratti di come rendere sicuro un sistema. proprio come diciamo che gli aerei sono sicuri, gli aerei continuano a schiantarsi occasionalmente, anche se è estremamente raro. diciamo che i farmaci sono sicuri, ma a volte la fda certifica comunque farmaci che possono causare la morte in alcune persone. pertanto, la sicurezza non viene decisa unilateralmente, ma è piuttosto la società a decidere quanto una cosa sia sicura e accettabile dopo aver valutato i rischi e i benefici. penso che possiamo farlo, ma ciò non significa che le cose non possano davvero andare storte.

penso che ci saranno grossi problemi con l’intelligenza artificiale da cui dobbiamo guardarci. penso che la società abbia in realtà un processo abbastanza buono, anche se disordinato, per decidere collettivamente quali soglie di sicurezza dovrebbero essere fissate. si tratta di una negoziazione complessa che coinvolge molte parti interessate e noi, come società, stiamo migliorando nel tempo. ma dobbiamo guardarci dal tipo di rischi catastrofici che hai menzionato.

l’energia nucleare è un esempio. la guerra nucleare ha avuto un impatto molto grande sul mondo. il mondo lo tratta in modo diverso e ha fatto un lavoro davvero straordinario negli ultimi quasi 80 anni. penso che una situazione simile accadrà con l’intelligenza artificiale. un esempio di cui si parla spesso è l’uso dell’intelligenza artificiale per progettare e creare agenti patogeni sintetici che possono causare enormi problemi. un altro tema molto discusso è il tema della sicurezza informatica e dell’intelligenza artificiale capace di hackerare oltre ogni capacità umana.

inoltre, c’è una nuova situazione in cui, se il modello è abbastanza potente, può aiutare a progettare metodi per trasferire i pesi dal server, fare molte copie e modificarne il comportamento, il che è più simile a uno scenario di fantascienza. ma penso che, come mondo, dobbiamo guardare a questo a testa alta. forse non quel caso specifico, ma l’idea è che esista un rischio catastrofico o addirittura potenzialmente esistenziale, e solo perché non possiamo definirlo con precisione non significa che possiamo ignorarlo.

quindi lavoriamo molto qui cercando di prevedere e misurare quali potrebbero essere questi problemi, quando potrebbero sorgere e come possiamo rilevarli precocemente. penso che tutte le persone che dicono che non si dovrebbe parlare di questo problema, ma solo di disinformazione, pregiudizi e questioni del giorno, si sbagliano. dobbiamo parlare di entrambi e restare al sicuro in ogni fase del percorso.

trevor:

ok, è stato spaventoso proprio come immaginavo. quindi, a proposito, stai davvero pensando di candidarti a governatore? è vero?

sam:

no, no. ci ho pensato molto brevemente nel 2017 o nel 2016, o anche in anni simili a quelli. lo penso anch'io.

sembra una vaga idea che ho avuto da qualche settimana, per divertimento.

trevor:

ok

immagino che la mia ultima domanda sia: e dopo? qual è il tuo sogno? se sam altman potesse agitare una bacchetta magica e trasformare l'intelligenza artificiale in qualunque cosa tu voglia, cosa pensi che porterebbe al futuro? quali sono i vantaggi? quali sono i vantaggi per tutti? e ad ogni livello, è una cosa davvero bella e positiva.

sam:

grazie per aver posto questa domanda penso che si debba sempre concludere con una nota positiva.

sì. penso che stiamo entrando nel periodo più fertile della storia umana. penso che i due fattori principali siano l’intelligenza artificiale e l’energia, ma ci saranno altri fattori. queste due cose, la capacità di elaborare qualsiasi idea, la capacità di implementare quelle idee e farlo su larga scala, i limiti di ciò che le persone possono avere saranno un po' come ciò che possono immaginare e ciò che noi come società negoziamo qualcosa. penso che sarà grandioso.

stavamo giusto parlando di cosa significherebbe se ogni studente potesse avere un’esperienza educativa migliore rispetto agli studenti più ricchi e con maggiori risorse di oggi? cosa significherebbe se tutti noi avessimo un’assistenza sanitaria migliore di quella disponibile oggi per le persone più ricche? cosa significherebbe se le persone fossero generalmente libere di svolgere il lavoro che ritengono più gratificante a livello personale, anche se ciò significasse dover passare a nuove categorie lavorative? cosa significherebbe se tutti potessero svolgere il lavoro che amano e avere le stesse risorse di una grande azienda o team?

quindi, forse invece di avere 800 persone in openai, ognuno avrà 800 sistemi di intelligenza artificiale più intelligenti in grado di fare tutte queste cose e le persone semplicemente creano e realizzano tutte queste cose, penso che sia davvero notevole. penso che questo sia il mondo verso cui ci stiamo muovendo. ciò richiederà molto lavoro, a parte la tecnologia, per realizzarlo, ad esempio la società dovrà apportare alcuni cambiamenti. ma il fatto che stiamo entrando in quest’era di abbondanza mi rende molto felice.

trevor:

questo è tutto quello che dirò qui. sono un grande, grande, grande fan dei potenziali vantaggi di openai. lavoro nel campo dell'istruzione in sud africa. il mio sogno è sempre stato quello di dare a ogni bambino l'accesso ai migliori tutor. capisci? letteralmente nessun bambino viene lasciato indietro poiché può imparare al proprio ritmo.

sam:

a proposito, cosa succede ai ragazzi che usano chatgpt per imparare cose? queste storie sono come quelle che ricevo per posta ogni giorno. questo è fantastico.

trevor:

infatti. questo è davvero sorprendente. soprattutto quando l’apprendimento diventa più multimodale, come l’aggiunta di video, diventa sorprendente.

sogno, come dici tu, l'assistenza medica. sogno tutto questo. una domanda esistenziale di cui penso non parliamo abbastanza è: una volta che l’intelligenza artificiale avrà effettivamente sostituito tutte queste cose, come possiamo ridefinire lo scopo umano? perché, che ti piaccia o no, nel corso della storia scoprirai che i nostri obiettivi hanno spesso definito il nostro progresso.

una volta il nostro obiettivo era solo la religione. nel bene e nel male, se ci pensi, la religione è davvero efficace nel portare le persone a pensare e ad agire in una direzione specifica che va oltre se stesse. dicono: "questo è il mio scopo". mi sveglio per servire dio, qualunque sia il dio a cui pensi. mi sveglio per servire dio. mi sveglio per compiacere dio. penso che faccia sentire gli esseri umani come se si stessero muovendo verso un obiettivo, ma dà loro anche un senso di comunità e appartenenza.

mentre ci muoviamo in un mondo in cui l’intelligenza artificiale elimina tutto questo, spero che non dimentichiamo quante persone hanno la loro intera identità legata a ciò che fanno piuttosto che a chi sono. una volta sostituiti questi ruoli, quando non ci sono impiegati, segretari, centralinisti, assistenti, operai, è quello che abbiamo visto accadere così spesso nella storia. come il radicalismo spuntato dal nulla, c’è stata un’opposizione massiccia. ci hai mai pensato? esiste un modo per intercettarlo prima che ciò accada?

sam:

come descriveresti quali sono i nostri obiettivi adesso?

trevor:

penso che in questo momento il nostro scopo sia sopravvivere e che la sopravvivenza sia legata a una qualche forma di generazione di reddito perché è così che ci viene detto che la sopravvivenza funziona, devi fare soldi per sopravvivere. ma abbiamo visto che questa situazione cambia in alcuni periodi. c'è un ottimo esempio in francia, avevano (e penso che ne abbiano ancora una versione) un fondo per gli artisti in cui dicevano: ti pagheremo come artista e tu creerai solo per far sembrare la francia più bella. e' così bello.

so che sei un fan dell'ubi. già, non dovremmo andarcene prima che tu ne abbia parlato.

sam:

non penso che la sopravvivenza delle persone debba essere legata alla loro volontà o capacità di lavorare. penso che sia come uno spreco di potenziale umano. sì, sono totalmente d'accordo con te.

trevor:

aspetta, lascia che te lo chieda prima di andare. è questo il motivo per cui ritieni che il reddito di base universale sia così importante? poiché non sprecheresti tempo e denaro per qualcosa in cui non credi, spendi molto tempo e denaro per un reddito di base universale. l'ultima cosa che ho visto è che eri coinvolto in un progetto da circa quaranta milioni di dollari. in realtà erano 60 milioni di dollari.

sam:

penso che un reddito di base universale non sia certamente una soluzione globale alle sfide che abbiamo davanti, ma penso che sradicare la povertà sia senza dubbio una buona cosa. penso che una migliore ridistribuzione delle risorse porterà a una società migliore per tutti. ma penso che inviare denaro non sia la parte fondamentale, fornire strumenti e fornire governance, penso che sia più importante. le persone vogliono essere architetti del futuro e penso di poter dire che esiste un filo continuo di significato o qualcosa come una missione per l'umanità.

da un punto di vista individuale, si tratta sicuramente di sopravvivere e prosperare, ma nel complesso abbiamo un’urgenza collettiva di migliorare il futuro. spesso andiamo per la tangente, ma la storia umana è: rendere il futuro migliore. questa è tecnologia, questa è governance, è così che ci trattiamo a vicenda. è come esplorare le stelle, è il modo per comprendere l'universo, qualunque esso sia. ho una grande fiducia e questa fiducia è profonda dentro di noi. non importa quali strumenti otteniamo, quel desiderio fondamentale, quella missione dell’umanità di prosperare come specie e come individui, non scomparirà mai.

quindi sono pieno di ottimismo riguardo al mondo tra due generazioni. ma questo è un punto molto importante che hai menzionato, ovvero che le persone che hanno già intrapreso la carriera e sono piuttosto soddisfatte, non vogliono cambiare. il cambiamento sta arrivando. una delle cose che abbiamo visto nelle precedenti rivoluzioni tecnologiche è che sembra che nel giro di circa due generazioni, la società e le persone possano adattarsi a qualsiasi grado di cambiamento nel lavoro. ma non tra dieci anni, e certamente non tra cinque anni.

affronteremo tutto questo e, in una certa misura, come abbiamo detto prima, penso che sarà più lento di quanto la gente pensi, ma comunque più veloce di quanto la società abbia dovuto affrontare in passato. sono decisamente un po' spaventato da cosa significhi e da come ci adattiamo a ciò. dovremo affrontare questo problema e penso che troveremo una soluzione. sono sicuro che lo scopriremo.

credo anche che se diamo ai nostri figli e nipoti strumenti migliori di quelli che abbiamo, faranno cose che ci stupiranno. spero che si sentano davvero in colpa per quanto sia orribile la vita per tutti noi. spero che il futuro sia incredibile. questo spirito e desiderio umano ama esplorare ed esprimersi, per progettare un mondo sempre migliore, e anche oltre questo mondo. penso che sia fantastico e ne sono davvero felice.

in un certo senso non dovremmo prendere troppo sul serio questa piccola cosa. in star wars, c'è un cattivo che dice: "non lasciarti impressionare troppo da questo terrore tecnologico che hai creato, penso che sia stato darth vader". ciò significa che questo terrore tecnologico non può competere con il potere della forza.

in un senso importante, la penso allo stesso modo riguardo all’intelligenza artificiale. non dovremmo essere troppo sorpresi da questo. ad esempio, lo spirito umano ci guiderà nei momenti difficili, ed è molto più grande di qualsiasi rivoluzione tecnologica.

trevor:

questo è un bellissimo messaggio di speranza.

spero che tu abbia ragione perché adoro questa tecnologia.

una cosa che voglio dirti, come sam altman, uno dei ceo dell'anno e persona dell'anno di time, penso che continuerai ad essere così, specialmente in questo ruolo. a causa dell’enorme impatto che openai e l’intelligenza artificiale stessa stanno per avere su di noi, ti imploro di continuare a ricordare come ti sei sentito quando sei stato licenziato perché stai creando una tecnologia che metterà molte persone in una posizione simile. vedo quell'umanità in te e spero che tu la tenga sempre in considerazione mentre crei.

sam:

sai cosa ho fatto sabato mattina, molto presto, quando non riuscivo a dormire? ho scritto cosa avrei potuto imparare da questo in modo da poter fare meglio quando gli altri attraversano situazioni simili e mi incolpano come se ora stessi incolpando il consiglio.

trevor: hai capito?

sam:

ci sono molte lezioni singole utili. ma l’empatia che ho acquisito dall’intera esperienza e dal riallineamento dei miei valori, sebbene dolorosamente costosa, è stata sicuramente una benedizione sotto mentite spoglie. sono contento di aver avuto questa esperienza in questo senso.

trevor:

bene, sam, grazie per il tuo tempo. grazie mille, mi è davvero piaciuto tutto. spero che potremo parlare di tutti i nuovi sviluppi tra un anno.

sam:

dovresti assolutamente farlo, sarà divertente.

trevor:

lo farò, fratello. meraviglioso. grazie.