notizia

Continuano le turbolenze nel personale di OpenAI: il co-fondatore prende un congedo a lungo termine, un altro membro del team fondatore si unisce ad Anthropi

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

La mattina del 6 agosto, ora di Pechino, OpenAI ha accolto con favore un altro cambio di personale di alto livello.

John Schulman, membro del team fondatore di OpenAI, ha annunciato sulle piattaforme social che lascerà OpenAI e si unirà ad Anthropic, un'altra startup di intelligenza artificiale. Greg Brockman, presidente e cofondatore di OpenAI, ha annunciato sui social media che prenderà un periodo di ferie fino alla fine dell'anno, senza menzionare notizie di una possibile partenza. C'è anche la notizia che se ne andrà anche il product leader di OpenAI, Peter Deng.


Dopo le precedenti dimissioni del cofondatore e capo scienziato di OpenAI Ilya Sutskever, il personale di OpenAI rimane instabile. Vale la pena notare che John Schulman e Ilya Sutskvo, che questa volta hanno annunciato le loro dimissioni, erano in precedenza responsabili del lavoro di allineamento dell’intelligenza artificiale di OpenAI. OpenAI ha precedentemente sciolto il team "Super Intelligence Alignment" e la partenza di John Schulman potrebbe significare che OpenAI è meno disposta a reinvestire nell'allineamento dell'intelligenza artificiale.

Inoltre, sebbene Greg Brockman non abbia rivelato la sua partenza, in un momento in cui OpenAI si sta concentrando sul superamento delle sfide dei modelli di prossima generazione, il congedo a lungo termine del personale principale potrebbe anche riflettere le differenze interne all’interno di OpenAI.

Benvenuti ancora cambiamenti di personale

John Schulman ha affermato di aver preso la decisione di lasciare OpenAI e unirsi ad Anthropic perché voleva concentrarsi ulteriormente sull'allineamento dell'intelligenza artificiale e tornare al lavoro tecnico vero e proprio. "Non me ne vado a causa della mancanza di supporto da parte di OpenAI per la ricerca sull'allineamento. Al contrario, l'azienda si è impegnata a investire in questo settore. La mia decisione è personale e spero di concentrarmi sulla fase successiva della mia carriera. "Ha detto John Schulman.

John Schulman ha affermato che finora, a parte gli stage, OpenAI è l'unica azienda per cui ha lavorato, ed è molto grato al CEO di OpenAI Sam Altman e al co-fondatore Greg Brock Mann che lo hanno reclutato fin dall'inizio, "Credo che OpenAI e la squadra per cui lavoro continuerà a prosperare senza di me."

Sam Altman ha risposto a John Schulman sulle piattaforme social, dicendo: "Grazie per tutto quello che hai fatto per OpenAI. Sei un ricercatore di talento e una persona che pensa profondamente ai prodotti e alla società. Sei un grande amico per tutti noi".

Il giornalista ha notato che all'inizio di quest'anno OpenAI ha sciolto il team "Super Intelligence Alignment" e ha istituito un nuovo comitato di sicurezza il 28 maggio, ora locale. John Schulman è uno dei membri del comitato di sicurezza. A quel tempo, OpenAI descrisse la sua posizione di Direttore della scienza dell'allineamento.

Sebbene il co-fondatore Greg Brockman abbia preso una lunga vacanza, non ha rivelato la sua intenzione di andarsene. Ha solo dichiarato sui social media che questa era la prima volta che poteva rilassarsi da quando ha co-fondato OpenAI 9 anni fa. "La missione è lungi dall'essere completata, dobbiamo ancora costruire un'AGI (intelligenza artificiale generale) sicura", ha affermato Greg Brockman.

Peter Deng non ha ancora menzionato la notizia della sua partenza sui social media. Peter Deng è un noto product manager della Silicon Valley. Ha ricoperto il ruolo di product manager per Google, Instagram, Facebook, Uber e altre società. L'anno scorso è entrato in OpenAI come vicepresidente dei prodotti di consumo, responsabile del prodotto e del design e team di ingegneri dietro ChatGPT. In una conversazione podcast all'inizio di quest'anno, quando ha menzionato i valori della sicurezza dell'intelligenza artificiale e di ChatGPT, ha affermato che la situazione ideale è che l'intelligenza artificiale possa adattarsi ai valori personali di ciascun utente. Questo non dovrebbe essere normativo, e non è il nostro. Quali valori vuoi instillare in ChatGPT, ma come possono essere integrati in qualche modo i valori di tutto il mondo nell'intelligenza artificiale?

Le turbolenze nel personale di OpenAI sono continuate da quando Sam Altman è stato licenziato e riassunto dal consiglio di amministrazione di OpenAI lo scorso anno. Ci sono voci secondo cui il licenziamento di Sam Altman è legato a divergenze interne su questioni di sicurezza dell'IA. Sam Altman e Ilya Sutskvo hanno divergenze su questioni di sicurezza e commercializzazione dell'IA. In quanto figura chiave nel conflitto interno, Ilya Sutskvo ha annunciato nel maggio di quest'anno che avrebbe lasciato OpenAI, con cui aveva lavorato per quasi 10 anni.

Inoltre, Andrej Karpathy, un altro membro fondatore del team OpenAI, ha lasciato OpenAI nel febbraio di quest'anno e ha annunciato la fondazione di una società educativa AI+ a luglio. OpenAI ha sempre meno membri del team fondatore ancora impiegati.

Ciò influenzerà il progresso dello sviluppo di GPT?

OpenAI accoglie nuovamente con favore i cambiamenti del personale, il che potrebbe significare che l'attenzione di OpenAI sulla sicurezza dell'intelligenza artificiale è cambiata. Resta da vedere se la prossima generazione di GPT sarà influenzata dai cambiamenti del personale.

Il giornalista ha notato che, secondo la descrizione di OpenAI, il primo compito del comitato di sicurezza precedentemente istituito è valutare e sviluppare ulteriormente i processi e le misure di salvaguardia di OpenAI nei prossimi 90 giorni e condividere raccomandazioni con tutti i membri del consiglio alla fine dei 90 giorni. Dopo la revisione del consiglio Divulgare le raccomandazioni adottate. Secondo il piano temporale, queste raccomandazioni saranno rese pubbliche dopo la fine di agosto e John Schulman ha deciso di lasciare OpenAI prima di allora.

In termini di sicurezza dell’IA, l’introduzione di OpenAI nel comitato di sicurezza appena istituito mostra che le responsabilità del team non sono del tutto coerenti con quelle del team sciolto “Super Intelligence Alignment”. Con la partenza di John Schulman, direttore della scienza dell’allineamento, ciò potrebbe significare che OpenAI presta meno attenzione all’allineamento dell’intelligenza artificiale.

"Allineamento" significa richiedere che gli obiettivi del sistema di intelligenza artificiale siano coerenti con i valori e gli interessi umani. Le responsabilità originali del team di "Super Intelligence Alignment" includevano la ricerca di soluzioni tecniche per prevenire anomalie nel sistema di intelligenza artificiale. Ilya Sutskvo ha affermato nelle interviste che ChatGPT potrebbe essere consapevole e che il mondo ha bisogno di rendersi conto del vero potere della tecnologia che la sua azienda e altri stanno creando. Altman non la vede allo stesso modo, rispondendo di recente che “[l’ex consiglio di amministrazione] aveva alcune opinioni su di me e su ciò che stavamo facendo, anche se ero fortemente in disaccordo con le loro idee. La questione dell’allineamento dell’IA non è ancora chiara Si dice che sia completamente risolto, ma attualmente l'effetto di lasciare che il sistema di intelligenza artificiale impari ad agire secondo una serie di valori è migliore di quanto immaginassi.

Anthropic, a cui si unirà John Schulman, è considerato il principale concorrente di OpenAI. Anthropic, una società fondata da ex dirigenti e dipendenti della ricerca OpenAI, possiede la serie di modelli di grandi dimensioni Claude. Nel giugno di quest'anno, Anthropic ha rilasciato l'ultimo modello Claude 3.5 Sonnet, che ha risultati migliori di GPT-4o in termini di ragionamento di livello laureato (GPQA), capacità di codifica (HumanEval) e ragionamento testuale (DROP).

A giudicare dai progressi della ricerca e dello sviluppo del GPT di prossima generazione, OpenAI sembra aver incontrato alcune difficoltà. Nel luglio di quest'anno, Sam Altman ha affermato che ci vorrà del tempo per sviluppare la tecnologia GPT-5 che è ancora nelle fasi iniziali e che ci sono problemi con dati e algoritmi.

Con John Schulman che se ne va per unirsi al rivale Anthropic e Greg Brockman che prende un congedo, resta da vedere se la partenza delle figure principali avrà un impatto sul progresso della ricerca e dello sviluppo di OpenAI.

Vale la pena notare che ci sono altri conflitti tra i cofondatori di OpenAI. Meno di due mesi dopo aver ritirato la causa, il CEO di Tesla Musk, co-fondatore di OpenAI, ha recentemente citato in giudizio Sam Altman e Greg Brockman in un tribunale statunitense, accusando il personale interessato di anteporre gli interessi commerciali al proprio interesse pubblico e di aver violato la fondazione dell'azienda contrarre. L'accusa afferma che Sam Altman e altri hanno deliberatamente ingraziato Musk e ingannato per co-fondare l'impresa no-profit OpenAI, ma poi hanno utilizzato vari mezzi per trasformarla in un'entità a scopo di lucro. OpenAI ha risposto alle accuse di Musk alcuni mesi fa con degli screenshot, affermando che Musk aveva accettato il piano dell'azienda di raccogliere più fondi, creare un'organizzazione a scopo di lucro e abbandonare gradualmente il rilascio di prodotti open source.