notizia

OpenAI, improvviso!Il cofondatore si dimette, il presidente prende un congedo

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



Autore |. Kong Haili Xiao Xiao stagista Wang Tian Liu Xin

Redattore丨Zhu Yimin Wang Jun

Fonte immagine |. Tu Chong

OpenAI "terremoto" di alto livello!

I membri del team principale se ne vanno uno dopo l'altro!Uno dei fondatori si è dimesso e il presidente ha preso un congedo.

Il 5 agosto, ora locale,John Schulman, uno dei cofondatori di OpenAI, ha annunciato la sua partenza sui social media e passerà ad Anthropic, quest'ultima è una società fondata da ex ricercatori di OpenAI ed è considerata un forte concorrente di OpenAI e si è sempre pubblicizzata come più attenta alla sicurezza di OpenAI.


Allo stesso tempo, un altro co-fondatore di OpenAI,Si è scoperto che il presidente Greg Brockman avrebbe prolungato le sue vacanze fino alla fine dell'anno per "rilassarsi e ricaricarsi". . Anche Peter Deng, entrato a far parte di OpenAI come leader del prodotto l'anno scorso, ha scelto di andarsene. In precedenza aveva affermato che il modello di OpenAI aveva deliberatamente soppresso le sue funzionalità più potenti quando veniva rilasciato per garantire la sicurezza.


Di fronte alla partenza di John Schulman, il CEO Sam Altman ha espresso la sua gratitudine in un post di risposta sui social media e ha affermato di "aver sviluppato gran parte della strategia iniziale di OpenAI".


Finora, degli 11 cofondatori di OpenAI, sono rimasti solo il CEO Sam Altman, il leader del team di generazione del linguaggio e del codice OpenAI Wojciech Zaremba e il presidente Greg Brockman, che è entrato in un congedo a lungo termine.

Infatti,Da quando il CEO di OpenAI Sam Altman è stato estromesso e riassunto nel giro di una settimana lo scorso novembre, la leadership dell'azienda ha subito frequenti cambiamenti di personale ed è stata lenta a stabilizzarsi.

Nel febbraio di quest'anno, un altro co-fondatore, Andrej Karpathy, si è dimesso e il mese scorso ha annunciato la creazione di una società di formazione AI+, Eureka Labs, che fungerà da nuovo tipo di "scuola nativa di intelligenza artificiale" per tutorare gli studenti nell'apprendimento.

A maggio, Ilya Sutskever, ex capo scienziato di OpenAI, ha annunciato ufficialmente le sue dimissioni. La nuova società da lui annunciata si concentrerà sul perseguimento delle capacità di intelligenza artificiale attraverso innovazioni ingegneristiche e scientifiche rivoluzionarie, dando priorità alla sicurezza.

A luglio, OpenAI ha spostato un altro capo della sicurezza, Aleksander Madry, ad altre posizioni. Recentemente, OpenAI ha anche assunto due nuovi dirigenti. Il veterano dei prodotti Facebook Kevin Weil ricoprirà il ruolo di Chief Product Officer di nuova creazione, mentre l'ex CEO di Nextdoor Sarah Friar ricoprirà anche il ruolo di Chief Financial Officer.

Gli esperti del settore ritengono che, in quanto azienda leader nel settore dell'intelligenza artificiale, la serie di cambiamenti del personale di OpenAI non influenzerà solo le operazioni dell'azienda e lo sviluppo strategico, ma influenzerà in una certa misura anche il layout industriale dell'intero settore dell'intelligenza artificiale.

Allo stesso tempo, OpenAI si trova ad affrontare una forte concorrenza da parte dei concorrenti sul campo di battaglia commerciale. Microsoft ha raggiunto una cooperazione strategica con il concorrente di OpenAI Anthropic e Meta renderà il suo potente modello gratuito e open source. E secondo quanto riferito,OpenAI potrebbe anche subire enormi perdite operative,In questa fase, frequenti cambiamenti nella leadership possono minare il morale dei dipendenti all’interno dell’azienda.

L'opinione del settore ritiene che l'instabilità del top management di OpenAI possa essere correlata a differenze nel processo decisionale, nella direzione strategica o nella pianificazione della carriera personale all'interno dell'azienda Più di un dirigente senior ha fatto commenti sui social media quando stavano subendo cambiamenti di dimissioni, che più o meno trasmesso "OpenAI si concentra troppo sulla commercializzazione e ignora la sicurezza."

Schulman, che si è dimesso, ha scritto in un post sui social media: "La leadership aziendale si è impegnata a investire in (ricerca allineata). La mia decisione è personale e si basa su ciò su cui voglio concentrarmi nella fase successiva della mia carriera". Ha anche detto: "Questa scelta è dovuta al fatto che spero di concentrarmi profondamente sulla ricerca sull'allineamento dell'intelligenza artificiale, di iniziare un nuovo capitolo nella mia carriera in Anthropic e di tornare al vero lavoro tecnico".

In precedenza era stato rivelato che il Super Alignment Team era stato sciolto

Nel maggio di quest'anno, è stato anche rivelato che OpenAI aveva sciolto il team Super Alignment, che si era dedicato a "guidare e controllare i sistemi di intelligenza artificiale più intelligenti di noi attraverso scoperte scientifiche e tecnologiche". Anche Jan Leike, il leader del team Super Alignment, si unì ad Anthropic in quel periodo.Tuttavia, OpenAI ha successivamente smentito le voci secondo cui avrebbe sciolto il team di super-allineamento e avrebbe ignorato la sicurezza.

FutureSearch, un'organizzazione di ricerca sull'intelligenza artificiale (AI), ha pubblicato un rapporto nel luglio di quest'anno, affermando di aver raccolto tutte le informazioni finanziarie disponibili su OpenAI e di aver concluso, attraverso calcoli professionali, che OpenAI ha circa 9,88 milioni di utenti paganti mensili, con entrate ricorrenti annuali che hanno raggiunto i 3,4 dollari. miliardi. Ciò è quasi esattamente coerente con le entrate annualizzate di OpenAI precedentemente divulgate da Altman.

Tuttavia, a causa degli enormi costi di formazione, sviluppo e gestione dei modelli, ci vorrà del tempo prima che OpenAI diventi redditizia. Secondo la ricerca di FutureSearch e altre informazioni rilevanti, i costi operativi totali di OpenAI quest'anno potrebbero raggiungere gli 8,5 miliardi di dollari, di cui i costi di inferenza e formazione ammontano rispettivamente a 4 miliardi e 3 miliardi di dollari. Se le entrate annuali di OpenAI ammontano a 3,4 miliardi di dollari, il divario tra entrate e spese raggiunge i 5 miliardi di dollari. In qualità di amministratore delegato dell'azienda, Sam Altman ha un pesante fardello sulle spalle: da un lato deve massimizzare i ricavi e dall'altro deve cercare nuovi finanziamenti. Le turbolenze nella gestione dell'azienda hanno aggiunto alcune incertezze.

Musk fa causa a OpenAI

Lo stesso giorno in cui John Schulman si è dimesso (5 agosto, ora locale), Elon Musk ha riaperto la causa contro OpenAI, accusando ancora una volta OpenAI e i suoi due fondatori, Sam Altman e Greg Brockman, di aver violato lo sviluppo della tecnologia di intelligenza artificiale da parte dell'azienda missione a beneficio dell’umanità.

Trascrivere i video di YouTube per addestrare l'intelligenza artificiale?Più di cento creatori hanno deciso di fare causa collettivamente

Il 2 agosto, ora locale, un rappresentante di un conduttore di YouTube ha presentato formalmente un documento di class action al tribunale distrettuale degli Stati Uniti per il distretto settentrionale della California.Si sostiene che OpenAI abbia trascritto milioni di video di YouTube senza autorizzazione per formare modelli di grandi dimensioni. Attualmente, più di 100 persone stanno partecipando all'azione legale collettiva.

Al momento della stesura di questo articolo, OpenAI non ha risposto alla causa collettiva.

L’accusa afferma che i creatori possiedono la proprietà dei video di YouTube e che le azioni di OpenAI hanno violato i termini della piattaforma YouTube e ottenuto vantaggi ingiusti dalle perdite dei creatori, richiedendo a OpenAI di risarcire più di 5 milioni di dollari.

Secondo il 21st Century Business Herald,Negli ultimi sei mesi, OpenAI è stata immersa nella controversia sul "furto" dei video di YouTube.: Nell'aprile di quest'anno, il New York Times ha pubblicato un articolo in cui affermava che OpenAI aveva esaurito tutti i dati di addestramento basati su testo nel 2021 e si era dedicato allo sviluppo di Whisper, un ampio modello di sintesi vocale, per trascrivere video di YouTube, podcast e altri dati di immagine in text e quindi continuare a ottimizzare il modello di grandi dimensioni.

Mezzo mese fa, i media hanno scoperto che molte aziende di intelligenza artificiale utilizzavano in formazione un set di dati open source chiamato Pile, uno dei quali era un sottoinsieme chiamato "Sottotitoli YouTube". Il set di dati è costituito da testo semplice, principalmente introduzioni testuali in video e sottotitoli di testo trascritti automaticamente da YouTube, coprendo 173.500 video YouTube e più di 4,8 canali.

Essendo il sito web di video più grande del mondo, YouTube ha da tempo vietato l'acquisizione di video e ha anche severe restrizioni sui download commerciali e sui download batch di video. Il portavoce di Google Matt Bryant ha commentato pubblicamente che i termini di servizio di Google e il file robots.txt (un file di pagina web che dice ai crawler quali contenuti non possono essere sottoposti a scansione) vietano chiaramente la scansione non autorizzata dei contenuti di YouTube. Google adotta "misure tecniche e legali" per impedire tale utilizzo laddove sussistano chiari motivi legali o tecnici per farlo.

Tuttavia, i dirigenti di OpenAI si sono sempre rifiutati di rispondere direttamente se utilizzano video di YouTube per addestrare i propri prodotti IA, in particolare per addestrare Sora. All'inizio di quest'anno, Mira Mulati, Chief Technology Officer di OpenAI, ha ceduto per la prima volta in un'intervista, affermando che "non era sicura" se utilizzare i video di YouTube.

Li Yunkai, partner dello studio legale Tianyuan, ha precedentemente analizzato con un giornalista del 21st Century Business Herald:La controversia sul copyright dei materiali formativi non può essere risolta e il problema fondamentale è la scatola nera tecnica . "Come possiamo dimostrare se il grande modello ha preso il vostro materiale? Che tipo di formazione ha fatto?" Li Yunkai ha detto che in questo caso, la soluzione che può rendere la responsabilità della piattaforma più leggera e sicura è in realtà quella di "tacere" , finché la piattaforma non lo dice, il creatore non può provarlo. Per i titolari dei diritti d’autore, la difficoltà maggiore è anche l’incapacità di fornire prove.

SFC

Il redattore di questo numero Jiang Peipei

21 Lettura consigliata