notícias

Terremoto de pessoal da OpenAI: Brockman, aliado do Ultraman, está de licença de longo prazo e o líder do produto renunciou

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Relatório do coração da máquina

Departamento Editorial de Coração de Máquina

A liderança da OpenAI recebeu mais uma vez três notícias importantes sobre mudanças de pessoal.



Primeiro, o presidente da OpenAI, Greg Brockman, um dos 11 cofundadores, tirará uma licença de longo prazo.

O executivo desempenhou um papel crucial na transformação dos resultados inovadores da OpenAI em modelos e produtos de IA em grande escala, como o ChatGPT, e serviu como um importante aliado do Ultraman Sam para retornar à empresa.



A versão que Greg Brockman contou aos funcionários foi que ele planejava retornar à empresa após uma licença prolongada. No entanto, férias prolongadas para executivos seniores em posições-chave conduzirão inevitavelmente a alguma especulação do mundo exterior.

Além disso, outro cofundador, John Schulman, anunciou sua mudança para a Anthropic, uma empresa rival fundada por ex-funcionários da OpenAI.



Enquanto estava na OpenAI, Schulman liderou um processo conhecido como “pós-treinamento” para refinar os grandes modelos de linguagem por trás do ChatGPT e outros produtos.

Schulman também assumiu recentemente o restante da equipe Hyper-Alignment, que está focada em evitar que a inteligência artificial cause danos à sociedade. Antes disso, o chefe da equipe do Super Alignment era Jan Leike, que anunciou sua renúncia no mesmo dia que o cofundador e cientista-chefe da OpenAI, Ilya Sutskever. Ilya fundou uma startup focada em segurança depois de deixar a OpenAI, e Jan Leike ingressou na Anthropic.

Segundo pessoa com conhecimento direto do assunto, o líder de produto Peter Deng, que ingressou na empresa no ano passado e anteriormente atuou como líder de produto na Meta Platforms, Uber e Airtable, saiu. A OpenAI contratou recentemente seu primeiro diretor financeiro e diretor de produtos, e sua chegada provavelmente impactará o papel de Deng.



Também conhecemos outro cofundador da OpenAI, Andrej Karpathy, que saiu em fevereiro deste ano e fundou uma startup educacional.

Essas notícias repentinas de demissões não são necessariamente relevantes, mas pelo menos ilustram um ponto: desde que a “Farsa de Combate ao Palácio” ocorreu em novembro passado, embora Sam Altman tenha retornado à OpenAI e assumido o comando, a liderança da empresa permanece instável.

John Schulman: Esta é uma decisão muito difícil

Posteriormente, John Schulman divulgou a notícia de sua saída no X e explicou que optou por mudar para o Anthropic porque queria se aprofundar no alinhamento da IA, que é a prática de alinhar a IA com os valores humanos.

Para os colegas que lutaram ao lado dele, John Schulman deixou uma carta:



Tomei a difícil decisão de deixar a OpenAI. Esta escolha resultou do meu desejo de focar ainda mais no alinhamento da IA ​​e iniciar um novo capítulo na minha carreira, retornando ao trabalho técnico de linha de frente. Decidi perseguir esse objetivo na Anthropic, onde acreditei que poderia ganhar novas perspectivas e realizar pesquisas com pessoas que se aprofundassem nos temas que mais me interessavam. Para ser claro, não vou sair por causa da falta de apoio da OpenAI para pesquisas de alinhamento. Pelo contrário, os líderes empresariais têm estado muito empenhados em investir nesta área. Minha decisão foi pessoal, baseada em onde eu queria me concentrar na próxima fase da minha carreira.

Há quase 9 anos, entrei na OpenAI após me formar na pós-graduação e me tornei membro da equipe fundadora. Esta é a primeira e única empresa em que trabalhei (além de um estágio). O trabalho também é muito interessante e sou grato a Sam e Greg por me recrutarem desde o início, e a Mira e Bob por confiarem em mim, por me darem muitas oportunidades e por me ajudarem a enfrentar com sucesso vários desafios. Estou orgulhoso do que realizamos juntos na OpenAI; construímos uma empresa incomum e sem precedentes com uma missão de bem-estar público.

Acredito que a OpenAI e a equipe da qual faço parte continuarão a prosperar mesmo sem mim. O trabalho de treinamento posterior está progredindo sem problemas e temos um grupo de talentos excepcionais. ChatGPT – muito crédito. Tem sido fantástico que Barret, junto com Liam, Luke e outros, tenham transformado a equipe na equipe muito capaz que é agora. Tenho o prazer de ver a equipe de coordenação trabalhando em conjunto para entregar alguns projetos promissores. Sob a liderança de Mia, Boaz e outros, acredito que a equipe será muito capaz.

Estou extremamente grato pela oportunidade de fazer parte de um momento tão importante da história e orgulhoso do que conquistamos juntos. Mesmo trabalhando em outro lugar, ainda apoiaria todos vocês.

No mesmo tom familiar, Ultraman Sam dispensou outro parceiro empreendedor:



O fundador renunciou e a equipe se desfez

As mudanças de pessoal da OpenAI começaram com a disputa na diretoria.

Em novembro do ano passado, a OpenAI anunciou que Sam Altman deixaria o cargo de CEO e se retiraria do conselho de administração porque Sam Altman não foi suficientemente sincero com o conselho de administração. O ex-cientista-chefe da OpenAI, Ilya Sutskever, foi o principal impulsionador de todo o incidente.

Mas alguns dias depois, Sam Altman retornou à OpenAI como CEO, e a OpenAI anunciou uma reorganização de seu conselho de administração.

Quando uma "luta no palácio" ocorreu no OpenAI e Ultraman Sam foi expulso do OpenAI, algumas pessoas espalharam rumores de que Ilya "viu algo" que era poderoso o suficiente para fazê-lo se preocupar com o futuro da IA ​​e repensar o desenvolvimento da IA.

Algumas pessoas até interpretaram como: OpenAI pode ter implementado AGI internamente, mas não sincronizou as informações para mais pessoas em tempo hábil. Para evitar que a tecnologia seja aplicada em larga escala sem avaliação de segurança, Ilya e outros pressionaram. chave de parada de emergência. Mas estas são apenas suposições.

Depois de uma turbulência, Ultraman parece ser capaz de gerenciar OpenAI com mais liberdade, enquanto Ilya Sutskever fica envergonhado.

Em maio deste ano, o cofundador e cientista-chefe da OpenAI, Ilya Sutskever, anunciou oficialmente sua renúncia. Ao mesmo tempo que Ilya, Jan Leike, co-líder da equipe Super Alignment, anunciou sua saída. A equipe Super Alignment da OpenAI foi dissolvida.



Em junho, Ilya disse no X que havia fundado uma nova empresa - "Safe SuperIntelligence (SSI)".

Jan Leike também anunciou no final de maio que se juntaria ao concorrente da OpenAI, Antrópico, para continuar trabalhando em pesquisas de superalinhamento. Depois que John Schulman anunciou que havia ingressado na Anthropic, Jan Leike comentou: “Estou muito feliz por trabalharmos juntos novamente!”



Por razões de segurança, o conselho de administração da OpenAI anunciou em maio a criação de um novo Comitê de Segurança e Proteção, liderado pelos diretores Bret Taylor (presidente do conselho), Adam D'Angelo, Nicole Seligman e Sam Altman (CEO). Este comitê é responsável por fazer recomendações a todo o Conselho de Administração sobre decisões críticas de segurança para projetos e operações OpenAI.

No entanto, as mudanças de pessoal continuaram. Isso faz as pessoas especularem sobre o que está acontecendo dentro do OpenAI.

Então, até que ponto o grande modelo de IA de próxima geração da OpenAI estará em relação ao AGI? Vale a pena se preocupar com a segurança de modelos grandes?

É importante notar que o OpenAI parece estar desacelerando ultimamente. A notícia divulgada pela OpenAI no DevDay neste outono afirmou que o GPT-5 não será lançado por enquanto, diminuindo as expectativas para lançamentos de grandes modelos, e se concentrará na atualização de sua API e serviços de desenvolvedor.

Link de referência: https://www.theinformation.com/articles/trio-of-leaders-leave-openai?rc=ks2jbm