notizia

OpenAI deve affrontare molteplici sfide: fuga di cervelli, pressione finanziaria e concorrenza che sta recuperando terreno.

2024-08-19

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Le turbolenze nel personale di OpenAI si sono intensificate da quando il CEO Sam Altman è stato licenziato e riassunto dal consiglio di amministrazione di OpenAI lo scorso anno.

Dall’inizio di quest’anno molti dirigenti senior si sono dimessi. Al momento, rimangono solo tre degli 11 cofondatori di OpenAI: Altman, Wojciech Zaremba, capo del team di generazione del linguaggio e del codice, e Greg Brockman, il presidente che è in congedo.

Perché OpenAI, che ha un’enorme influenza nel campo dell’intelligenza artificiale, non riesce a trattenere questi fondatori?

rilasciare questi segnali

All'inizio di questo mese, John Schulman, che ha svolto un ruolo importante nella creazione di ChatGPT, ha annunciato che avrebbe lasciato OpenAI e si sarebbe unito al concorrente Anthropic. Ha detto: "Ho deciso di perseguire l'obiettivo di studiare l'allineamento dell'intelligenza artificiale presso Anthropic e di condurre ricerche con persone che approfondiscono argomenti che mi interessano". Peter Deng, vicepresidente dei prodotti di consumo e leader di prodotto che si è unito l'anno scorso, anche lui annuncio ufficiale dimissioni.

Liu Pengfei, professore associato presso l'Università Jiao Tong di Shanghai e capo del gruppo di ricerca sull'intelligenza artificiale generativa, ha dichiarato in un'intervista a China Business News: "La partenza di ricercatori senior come Schulman dimostra che OpenAI potrebbe non essere più la prima scelta per i migliori Scienziati dell’intelligenza artificiale. Altri si concentrano sull’intelligenza artificiale. Aziende sicure come Anthropic o nuove startup stanno attirando talenti, il che potrebbe essere un segno di diversificazione nell’ecosistema di ricerca sull’intelligenza artificiale”.


Vale la pena notare che Brockman, che ha sostenuto fermamente Altman durante la tempesta di richiami dello scorso anno, ha anche annunciato che avrebbe preso un congedo fino alla fine dell'anno quasi nello stesso periodo, dicendo: "Il compito è lungi dall'essere completato, dobbiamo ancora costruire un'AGI sicura." (Intelligenza Artificiale Generale)".

A questo proposito, Tan Yinliang, professore di scienze delle decisioni e sistemi informativi gestionali presso la China Europe International Business School, ha affermato in un'intervista a China Business News che l'industria ha generalmente interpretato la mossa di Brockman come una partenza imminente perché l'ex co-fondatore di OpenAI, Anche Andrej Karpathy si è dimesso dopo una lunga vacanza.

Tan Yinliang ha affermato che le recenti azioni di Schulman e Brockman hanno lanciato due segnali: in primo luogo, ci sono problemi nella gestione interna di OpenAI, scienziati eccezionali potrebbero continuare ad andarsene e il divario di sviluppo tra altre società di intelligenza artificiale e OpenAI potrebbe gradualmente scomparire; Lo sviluppo dei modelli di prossima generazione potrebbe aver incontrato un collo di bottiglia e il settore tecnico potrebbe dover riflettere se la ScalingLaws (la legge di scala) si stia avvicinando alla fine.

"Quando il mese prossimo le clausole di non concorrenza nelle aziende americane saranno completamente abolite e il flusso di talenti dell'intelligenza artificiale sarà completamente slegato, il problema della fuga di cervelli da OpenAI potrebbe diventare ancora più serio."

"Rebel" apre una nuova era

Secondo le statistiche degli istituti di ricerca del settore, quasi 75 dipendenti principali di OpenAI si sono dimessi e hanno fondato circa 30 startup di intelligenza artificiale. Dario Amodei, fondatore e amministratore delegato della società di intelligenza artificiale Anthropic, ha dichiarato in un programma di luglio che le società modello di intelligenza artificiale stanno per guadagnare più di un trilione di dollari USA di entrate. Nel mercato dell’intelligenza artificiale su scala trilioniera, OpenAI e i suoi dipendenti espatriati possono rappresentare più della metà del mercato.

I fratelli Amodei sono stati vicepresidente della ricerca e vicepresidente della politica di sicurezza presso OpenAI. Nel 2020, si sono dimessi a causa dell'insoddisfazione per il rilascio diretto di GPT-3 da parte di OpenAI senza risolvere i problemi di sicurezza. Hanno anche portato via l'ex direttore politico Jack Clark e il ricercatore Jared Kaplan per partecipare alla creazione di GPT-3. Dal 2021, la società ha raccolto finanziamenti per almeno 7 miliardi di dollari da giganti della tecnologia come Google e Amazon. L'ultima versione del chatbot, Claude 3.5 Sonnet, lanciata a giugno, è considerata equivalente o migliore del GPT-4o di OpenAI in termini di prestazioni complessive.

Perplexity, una società di ricerca sull’intelligenza artificiale fondata nell’agosto 2022 dall’ex ricercatore OpenAI Aravind Srinivas, è attualmente valutata più di 3 miliardi di dollari. L'azienda ha dichiarato di aver ricevuto 250 milioni di query il mese scorso, la metà del numero registrato nell'intero anno scorso. La crescita esplosiva ha reso Perplexity considerato un forte concorrente di Geimini di Google e SearchGPT di OpenAI.

Nel luglio di quest'anno, anche Musk, co-fondatore di OpenAI e CEO di Tesla, "ha preso l'ultimo biglietto" e ha annunciato la fondazione della sua società di intelligenza artificiale xAI per "comprendere la vera natura dell'universo".

Tan Yinliang ha dichiarato: "È relativamente comune che i fondatori se ne vadano nel campo dell'hard technology, e questa cultura dell'"esodo" è stata prevalente fin dall'inizio dell'ascesa della Silicon Valley. La più famosa è "Fairy Child Eight Rebels" ', queste otto persone che hanno iniziato da Fairchild Dopo aver lasciato il lavoro, ha fondato un gran numero di prime società tecnologiche, tra cui Intel e AMD. È stato questo gruppo di società a creare la Silicon Valley di San Francisco nell'era dell'intelligenza artificiale Ora sono presenti anche otto autori del documento "AttentionIsAllYouNeed", che ha gettato le basi per il grande modello. Ha lasciato Google e ha fondato la propria azienda."

Ha detto: "I piani imprenditoriali personali e le varie differenze filosofiche che emergono durante il processo di sviluppo dell'impresa possono essere le ragioni per cui i fondatori se ne vanno. Tuttavia, a volte andarsene non è necessariamente una cosa negativa. Sono questi 'rinnegati' che si aprono un campo e tempi nuovi”.

La sicurezza è un argomento che OpenAI non può evitare

Tuttavia, è innegabile che “sicurezza” e “allineamento” siano anche parole molto frequenti nelle dichiarazioni di dimissioni dei fondatori.

Oltre a Schulman, il cofondatore e capo scienziato di OpenAI Ilya Sutskever e il leader del team Super Alignment Jan Leike hanno annunciato le loro dimissioni a maggio. Lake si è persino lamentato sui social media X che "la cultura e i processi della sicurezza hanno lasciato il posto a prodotti brillanti".

Successivamente, nel giugno di quest'anno, Suzkwer ha annunciato la creazione di una nuova società di intelligenza artificiale, Safe Superintelligence Inc. (SSI), e ha affermato che "la superintelligenza sicura è il nostro unico obiettivo". Lake si è unito alla società rivale di intelligenza artificiale Anthropic di OpenAI per "continuare la missione di super allineamento".

A questo proposito, Tan Yinliang ha affermato: "Nel campo dell'intelligenza artificiale, 'Allineamento' (AIAlignment) si riferisce al garantire che il comportamento del sistema AI sia coerente con i valori umani, le intenzioni e gli obiettivi attesi. In poche parole, è per fare in modo che l'intelligenza artificiale segua meglio i bisogni umani, è necessario pensare alle cose e ai valori delle persone. Altman non ha fatto abbastanza nel dipartimento di sicurezza. Inizialmente aveva promesso di dare il 20% delle risorse di potenza di calcolo al team di super-allineamento, ma alla fine il concetto è stato cambiato e l’intero team di sicurezza ha diviso il 20%. Per un gruppo di scienziati con intenzioni originali, la sicurezza è la loro insistenza.”

Alla fine di luglio di quest'anno, OpenAI ha trasferito anche Aleksander Madry, direttore senior del dipartimento di sicurezza, dal suo incarico di sicurezza e lo ha riassegnato al lavoro di "ragionamento AI". All'inizio di questo mese, Musk ha intentato ancora una volta una causa contro OpenAI e Altman, accusando OpenAI di anteporre i profitti e gli interessi commerciali agli interessi pubblici, deviando dall'intenzione originale di avvantaggiare tutta l'umanità quando l'azienda è stata fondata.

Li Wei'an, professore titolare della cattedra presso l'Università di Nankai e preside del China Corporate Governance Research Institute, ha dichiarato in un'intervista a China Business News: "Nell'imprenditorialità tradizionale, molti spostamenti di lavoro sono dovuti alla mancanza di remunerazione, azioni o posizioni corrispondenti al valore creato, ma non è soprattutto questo il motivo della partenza dei cofondatori di OpenAI”.

Ha detto che i fondatori di OpenAI fondamentalmente non detengono azioni. Dal punto di vista della governance dell'intelligenza artificiale, il motivo principale per cui i fondatori se ne sono andati è il conflitto dei concetti di governance, vale a dire se la governance dell'intelligenza artificiale sia a scopo di bene o di profitto.

ChallengerAntropico

Da Lake a Schulman, Anthropic continua ad attrarre i membri principali di OpenAI.

La società ha recentemente assunto anche Pavel Izmailov, un ex ricercatore di OpenAI licenziato nell’aprile di quest’anno per presunta fuga di informazioni. Anche Steven Bills, che è membro dello staff tecnico di OpenAI da più di due anni, ha dichiarato il mese scorso di aver lasciato OpenAI per unirsi al team di allineamento di Anthropic.

Liu Pengfei ha affermato che Anthropic ha fatto della sicurezza e dell’allineamento dell’intelligenza artificiale la sua missione principale sin dal suo inizio. Questo focus le consente di concentrare più risorse e attenzione sui problemi di allineamento, fornendo potenzialmente ai ricercatori un ambiente di ricerca più puro. Inoltre, per un ricercatore senior come Schulman, lavorare in un'azienda nuova e relativamente più piccola può significare maggiore influenza e maggiori opportunità di modellare la direzione dell'azienda, il che è più importante per coloro che sperano di lavorare in un settore molto interessante a metà carriera. ricercatori alla ricerca di nuove sfide.

Li Wei'an ha affermato: "L'innovazione di Anthropic nella struttura di governance aziendale riflette un migliore equilibrio tra business e sicurezza, che potrebbe anche essere il motivo per cui può continuare ad attrarre talenti per cambiare lavoro."

Ha spiegato: “Al fine di trovare un equilibrio tra AI for good e AI for profit, in termini di struttura di governance, Anthropic ha istituito un comitato fiduciario composto da figure ben note nella società per supervisionare gli amministratori. Hanno il diritto di rimuovere gli amministratori che violano a fin di bene lo scopo della tecnologia. Inoltre, al fine di garantire l’implementazione del sistema, Anthropic ha anche creato una classe speciale di azioni T che saranno detenute da membri del trust.

Nel maggio di quest'anno Amodei ha dichiarato in un vertice: "Abbiamo sette cofondatori. Tre anni e mezzo dopo, siamo ancora tutti in azienda".

Per quanto riguarda le sfide affrontate da OpenAI, Tan Yinliang ha dichiarato: "Guardando ad altre società di intelligenza artificiale, il modello di Claude ha superato GPT in alcuni campi. Quando tutti corrono sul percorso stabilito di Transformer, il punto finale e il percorso sono in realtà molto chiari. . Al momento, se gli scienziati continuano ad andarsene, il vantaggio di OpenAI di fare la prima mossa non è insormontabile”.

"Ad agosto, Musk ha anche riavviato la causa contro OpenAl. In termini finanziari, le perdite annuali di OpenAI potrebbero raggiungere i 5 miliardi di dollari USA e il suo flusso di cassa potrebbe essere esaurito nel prossimo anno. Tra preoccupazioni interne ed esterne, quest'anno dovrebbe essere un buon inizio per OpenAI. È molto difficile", ha affermato.