Новости

Большие изменения в топ-менеджменте OpenAI: Ляньчуан подал в отставку, а ее президент ушел в отпуск, говорят пользователи сети: руководство стало пустой оболочкой

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

  • Мэнчен Крекси происходит из храма Аофэй.
    Кубиты | Публичный аккаунт QbitAI

Только что в верхушке OpenAI произошло большое землетрясение:

Ляньчуан Джон ШульманУвольняйся и беги,Ляньчуан и президент Грег Брокмандолгий отпуск,Питер Денг, вице-президент по продуктуТакже выяснилось, что он подал в отставку.



Джон Шульман, который много лет возглавлял команду OpenAI по обучению с подкреплением, известен как «ЧатGPT Архитектор»

Именно он временно возглавил команду Super Alignment после ухода Ильи Сусткевера.

Теперь он объявил, что «принял трудное решение» присоединиться к Anthropic, соседней команде Claude.



В то же время президент OpenAI Грег Брокман также объявил, что возьмет длительный отпуск до конца года.

OpenAI планирует проводить дни разработчиков и другие мероприятия по всему миру начиная с 1 октября, и он тоже будет отсутствовать.



Брокман сказал, что это был первый раз, когда он расслаблялся после девяти лет работы подряд, но он не был уверен в своих планах на конец года. Некоторые пользователи сети думали, что это произошло из-за соглашения о конфиденциальности.



Через двадцать минут после официального объявления об отставке Шумана Альтман в своем ответе поблагодарил Шумана за его вклад и вспомнил сцену, когда они впервые встретились в 2015 году.

Но пока Ultraman не отреагировал на уход Брокмана.



Альтман обычно имеет привычку набирать первую букву предложений и букву «i» без заглавных букв, но всякий раз, когда важный коллега решает уйти, он ведет себя более формально.



Знаменитый инсайдерский аккаунт OpenAI Apple Brother заявил: «Теперь, когда руководство стало пустой оболочкой, вам следует поторопиться и выпустить продукт».



Архитектор ChatGPT подал в отставку

Шуман учился на бакалавриате в Калифорнийском технологическом институте.физика, некоторое время учился в Калифорнийском университете в Беркли.Нейронаука, позже учился уобучение с подкреплениемДэниел Аббил защитил докторскую диссертацию по информатике.

Когда он стал соучредителем OpenAI, он еще не получил докторскую степень.

OpenAI — первая и единственная компания, в которой он работал после стажировки.



Его шедевр и самая цитируемая статьяППО, который представляет собой алгоритм обучения с подкреплением, выбранный в базовой технологии ChatGPT RLHF.



Позже он возглавил группу выравнивания и постобучения в серии работ от GPT-3.5, GPT-4 до GPT-4o.

Причина его отставки на этот раз также была связана с этим:

Надеюсь углубить свое внимание к согласованию ИИ и начать новую главу в своей карьере, где я смогу вернуться к реальной технической работе.

Тем не менее, он также дал OpenAI достаточное лицо, добавив, что«Не ухожу из-за отсутствия поддержки OpenAI усилий по безопасному согласованию», просто из личного желания сосредоточиться.

В своем выступлении на ICML2023 Шуман описал одно из следующих направлений своих исследований:Как избежать чрезмерной оптимизации

  • Некоторые раздражающие действия в ChatGPT (например, чрезмерные извинения) являются результатом чрезмерной оптимизации.
  • RLHF может легко переоптимизировать узкие показатели, например, модель может изучить ярлыки, которые приносят вознаграждение, не понимая их по-настоящему;
  • Правильная подготовка к разговорным задачам требует рассуждений, взглядов и знаний, и исследователи должны тщательно разрабатывать процедуры обучения, функции вознаграждения и наборы данных.
  • Сигналы вознаграждения должны оценивать качество всего разговора, а не только отдельных отзывов.



В интервью ведущему подкаста Дваркешу Пателю в мае этого года Шуман также сказал:Вычислительные мощности следует больше переносить с предварительной тренировки на посттренировочную.



OpenAI продолжает терять таланты

Из-за различий в концепциях безопасности ИИ с Ultraman, OpenAI испытала огромную потерю талантов.

В мае этого года два лидера группы Super Alignment — главный научный сотрудникИлья Суцкевери один из изобретателей RLHFЯн Лейке, покинули OpenAI один за другим в один и тот же день.



На тот момент прошло меньше года с момента создания Super Alignment Team.

После ухода Яна Лейке он отправил подряд более дюжины твитов, лихорадочно бомбардируя OpenAI, обвиняя ее в невыполнении своего обещания по 20% вычислительной мощности и в том, что она уделяет гораздо меньше внимания безопасности, чем ее продукты.

Позже Ян Лейке решил присоединиться к Anthropic, конкуренту OpenAI, чтобы продолжить исследования в области супервыравнивания.

Вместе с Яном Лейке возглавляет усилия по согласованию проекта GPT-4.Райан Лоу, также покинул OpenAI в конце марта.

И один из суперединственных членовУильям Сондерси те, кто участвовал в состязательном тестировании GPT-4Даниэль Кокотайло, также ушёл из OpenAI.

Не говоря уже о соседнем домеБрат и сестра Дарио Амодей и Даниэла Амодей, основатели Anthropic., также из OpenAI.

До ухода его брата Дарио он был вице-президентом по исследованиям в OpenAI, а его сестра Даниэла была заместителем директора отдела безопасности и стратегии.Том Браун, главный инженер ГПТ-3Я принес его в Anthropic с более чем дюжиной сотрудников.

Одной из причин, по которой они решили уйти, чтобы начать бизнес, было то, что OpenAI напрямую выпустила GPT-3, не решив проблему безопасности, что вызвало их недовольство.

Акцент на безопасности в сочетании с опытом основателя также сделал Anthropic одним из основных мест для сотрудников OpenAI, включая Яна Лейке и Шумана, которые на этот раз ушли.



OpenAI также недавно предприняла некоторые шаги в области безопасности.

В конце июля OpenAI назначила старшего директора департамента безопасностиАлександр МадриЕго перевели с должности охранника и переназначили на должность «рассуждение ИИ».

Но OpenAI сообщила СМИ, что Мадри по-прежнему будет привержен обеспечению безопасности искусственного интеллекта после вступления в новую должность.

Генеральный директор Альтман также подчеркнул, что OpenAI всегда придавала большое значение работе по обеспечению безопасности и придерживалась своего обязательства «отдавать не менее 20% вычислительной мощности всей команде безопасности».



Но зоркие пользователи сети вскоре обнаружили, что Ультрачеловек поигрался с волной хитрых концепций.Первоначальное обещание заключалось в том, чтобы передать 20% вычислительной мощности команде супервыравнивания, но оно было тайно изменено для всех групп безопасности.

Поэтому после твита Ультрамена пользователи сети безжалостно добавили эту справочную информацию и прикрепили официальную ссылку на OpenAI на тот момент.



эмм... у Интернета еще есть воспоминания.

Еще кое-что

В то время как большое количество внутренних талантов теряется, у «старого врага OpenAI» Маска также есть новые действия —

Маск только что снова подал на OpenAI в судОтветчиками также являются Ultraman и генеральный директор Brockman.

Причина этого иска в том, что Маск считал, что его «обманывали и вымогали» Альтман и Брокман, когда он участвовал в создании OpenAI.



Маск сказал, что изначально он участвовал и инвестировал в OpenAI, потому что поверил словам Альтмана. В то время Альтман пообещал, что OpenAI будет безопасной и открытой некоммерческой организацией.

Но позже OpenAI стала коммерческой организацией и продала часть своих акций Microsoft. Это очень раздосадовало Маска, посчитавшего, что его предали, и обвинило Альтмана в «предательстве».

Адвокат Маска Марк Тоберофф заявил, что иск существенно отличается от ранее отозванного, поскольку обвиняемые "несут ответственность за сознательное предоставление ложных заявлений Маску и общественности" и требуют "массового восстановления своих прав, полученных незаконным путем".

При этом в обвинительном заключении также требуется отзыв лицензии, предоставленной OpenAI Microsoft.

Справочные ссылки:
[1]https://www.bloomberg.com/news/articles/2024-08-06/openai-co-founder-john-schulman-departs-for-ai-rival-anthropic
[2]https://www.cnbc.com/2024/07/23/openai-removes-ai-safety-executive-aleksander-madry-from-role.html
[3]https://x.com/sama/status/1818867964369928387
[4]https://www.documentcloud.org/documents/25031741-elon-vs-openai-again
[5]https://www.nytimes.com/2024/08/05/technology/elon-musk-openai-lawsuit.html