новости

OpenAI сталкивается с множеством проблем: утечкой мозгов, финансовым давлением и догоняющими конкурентами.

2024-08-19

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Кадровые беспорядки в OpenAI усилились после того, как в прошлом году совет директоров OpenAI уволил и вновь принял на работу генерального директора Сэма Альтмана.

С начала этого года многие топ-менеджеры ушли в отставку. На данный момент из 11 соучредителей OpenAI осталось только трое: Альтман, Войцех Заремба, руководитель группы разработки языков и кода, и Грег Брокман, президент, находящийся в отпуске.

Почему OpenAI, имеющая огромное влияние в сфере искусственного интеллекта, не может удержать этих основателей?

выпустить эти сигналы

Ранее в этом месяце Джон Шульман, сыгравший важную роль в создании ChatGPT, объявил, что покидает OpenAI и присоединяется к конкуренту Anthropic. Он сказал: «Я решил преследовать цель изучения ИИ в Anthropic и проводить исследования с людьми, которые углубляются в темы, которые меня интересуют. Питер Денг, вице-президент по потребительским товарам и лидер по продуктам, присоединившийся к нам в прошлом году, также является официальным объявлением». отставка.

Лю Пэнфэй, доцент Шанхайского университета Цзяо Тонг и руководитель исследовательской группы генеративного искусственного интеллекта, сказал в интервью China Business News: «Уход таких старших исследователей, как Шульман, показывает, что OpenAI больше не может быть первым выбором для ведущих Другие ученые сосредоточены на ИИ. Безопасные компании, такие как Anthropic, или новые стартапы привлекают таланты, что может быть признаком диверсификации экосистемы исследований ИИ».


Стоит отметить, что Брокман, который твердо поддерживал Альтмана во время прошлогодней бури отзыва, также объявил, что почти в то же время возьмет отпуск до конца года, заявив: «Задача далека от завершения. нам все еще нужно создать безопасный AGI.» (Общий искусственный интеллект)».

В связи с этим Тан Иньлян, профессор кафедры принятия решений и информационных систем управления в Китайско-Европейской международной бизнес-школе, заявил в интервью China Business News, что отрасль в целом интерпретировала шаг Брокмана как неизбежный уход, поскольку бывший соучредитель OpenAI, Андрей Карпатый также подал в отставку после длительного отпуска.

Тан Иньлян заявил, что недавние действия Шульмана и Брокмана дали два сигнала: во-первых, существуют проблемы во внутреннем управлении OpenAI, выдающиеся ученые могут продолжать уходить, а разрыв в развитии между другими компаниями, занимающимися искусственным интеллектом, и OpenAI может постепенно исчезнуть, во-вторых, GPT5; Разработка моделей следующего поколения, возможно, столкнулась с узким местом, и техническим специалистам, возможно, придется задуматься о том, приближается ли ScalingLaws (закон масштабирования) к своему концу.

«Когда в следующем месяце положения о неконкуренции в американских компаниях будут полностью отменены и поток талантов в области ИИ полностью развязан, проблема утечки мозгов OpenAI может стать еще более серьезной».

«Бунтарь» открывает новую эру

Согласно статистике отраслевых исследовательских институтов, около 75 основных сотрудников OpenAI ушли в отставку и основали около 30 стартапов в области искусственного интеллекта. Дарио Амодей, основатель и генеральный директор компании Anthropic, занимающейся искусственным интеллектом, заявил в июльской программе, что компании, занимающиеся моделями искусственного интеллекта, собираются заработать более одного триллиона долларов США дохода. На триллионном рынке искусственного интеллекта OpenAI и ее иностранные сотрудники могут занимать более половины рынка.

Братья и сестры Амодеи работали вице-президентом по исследованиям и вице-президентом по политике безопасности в OpenAI. В 2020 году они ушли в отставку из-за недовольства прямым выпуском GPT-3 OpenAI без решения вопросов безопасности. Они также отозвали бывшего директора по политике Джека Кларка и исследователя Джареда Каплана для участия в создании GPT-3 из 14 исследователей. С 2021 года компания привлекла финансирование на сумму не менее 7 миллиардов долларов США от таких технологических гигантов, как Google и Amazon. Последняя версия чат-бота Claude 3.5 Sonnet, выпущенная в июне, считается эквивалентной или превосходящей OpenAI GPT-4o по общей производительности.

Perplexity, поисковая компания по искусственному интеллекту, основанная в августе 2022 года бывшим научным сотрудником OpenAI Аравиндом Шринивасом, в настоящее время оценивается более чем в 3 миллиарда долларов США. Компания заявила, что в прошлом месяце у нее было 250 миллионов запросов, что вдвое меньше, чем за весь прошлый год. Взрывной рост сделал Perplexity сильным конкурентом Geimini от Google и SearchGPT от OpenAI.

В июле этого года Маск, соучредитель OpenAI и генеральный директор Tesla, также «получил последний билет» и объявил о создании своей компании по искусственному интеллекту xAI, чтобы «понять истинную природу Вселенной».

Тан Иньлян сказал: «Основатели довольно часто уходят из сферы высоких технологий, и эта культура «исхода» преобладает с самого начала подъема Кремниевой долины. Самая известная из них — «Восемь мятежников-фейри». ', эти восемь человек, начавших с Fairchild. После ухода с работы он основал большое количество первых технологических компаний, включая Intel и AMD. Именно эта группа компаний создала Силиконовую долину Сан-Франциско в эпоху искусственного интеллекта. восемь авторов статьи «AttentionIsAllYouNeed», заложившей основу для большой модели, теперь также покинули Google и основали собственную компанию».

Он заявил: "Личные предпринимательские планы и различные философские разногласия, возникающие в процессе развития предприятия, могут быть причинами ухода учредителей. Однако иногда уход - это не обязательно плохо. Именно эти "отщепенцы" раскрываются новое поле и времена».

Безопасность — это тема, которую OpenAI не может обойти

Однако нельзя отрицать, что слова «безопасность» и «согласованность» также часто встречаются в заявлениях об отставке основателей.

Помимо Шульмана, в мае о своих отставках заявили соучредитель и главный научный сотрудник OpenAI Илья Суцкевер и руководитель команды Super Alignment Ян Лейке. Лейк даже пожаловался в социальных сетях X, что «культура и процессы безопасности уступили место блестящим продуктам».

Впоследствии в июне этого года Сузквер объявил о создании новой компании по искусственному интеллекту Safe Superintelligence Inc. (SSI) и заявил, что «безопасный суперинтеллект — наша единственная цель». Лейк присоединился к конкурирующей с OpenAI компании по искусственному интеллекту Anthropic, чтобы «продолжить миссию супервыравнивания».

В связи с этим Тан Иньлян сказал: «В области искусственного интеллекта «Выравнивание» (AIAlignment) означает обеспечение того, чтобы поведение системы ИИ соответствовало человеческим ценностям, намерениям и ожидаемым целям. Проще говоря, это Чтобы заставить ИИ лучше следовать потребностям человека, необходимо думать о вещах и ценностях людей. Альтман не сделал достаточно в отделе безопасности. Первоначально он обещал отдать 20% ресурсов вычислительной мощности команде супер-выравнивания, но в конце концов. концепция была изменена, и вся команда безопасности разделила 20%. Для группы ученых с оригинальными намерениями безопасность — это их требование».

В конце июля этого года OpenAI также уволила с должности старшего директора департамента безопасности Александра Мадри и переназначила его на работу по «рассуждению ИИ». В начале этого месяца Маск в очередной раз подал иск против OpenAI и Альтмана, обвинив OpenAI в том, что она ставит прибыль и коммерческие интересы выше общественных интересов, отклоняясь от первоначального намерения принести пользу всему человечеству, когда компания была основана.

Ли Вэйань, профессор Нанкайского университета и декан Китайского научно-исследовательского института корпоративного управления, сказал в интервью China Business News: «В традиционном предпринимательстве многие смены работы происходят из-за отсутствия вознаграждения, акций или должностей, соответствующих к созданной ценности, но это не основная причина ухода соучредителей OpenAI».

Он сказал, что основатели OpenAI в основном не владеют акциями. С точки зрения управления искусственным интеллектом, основной причиной ухода основателей является конфликт концепций управления, то есть является ли управление искусственным интеллектом во благо или ради прибыли.

ЧелленджерАнтропный

От Лейка до Шульмана, Anthropic продолжает привлекать основных членов OpenAI.

Компания также недавно наняла Павла Измайлова, бывшего исследователя OpenAI, которого уволили в апреле этого года за предполагаемую утечку информации. Стивен Биллс, который более двух лет был техническим сотрудником OpenAI, также заявил в прошлом месяце, что покинул OpenAI, чтобы присоединиться к команде согласования Anthropic.

Лю Пэнфэй сказал, что Anthropic с момента своего создания сделала безопасность и согласованность ИИ своей основной миссией. Этот фокус позволяет ей сосредоточить больше ресурсов и внимания на вопросах согласования, потенциально предоставляя исследователям более чистую исследовательскую среду. Кроме того, для такого старшего исследователя, как Шульман, работа в новой, относительно небольшой компании может означать большее влияние и больше возможностей для формирования направления компании, что более важно для тех, кто надеется работать в очень привлекательной для среднего звена карьеры. исследователи, ищущие новые задачи.

Ли Вэйань сказал: «Инновации Anthropic в структуре корпоративного управления отражают лучший баланс между бизнесом и безопасностью, что также может быть причиной того, что компания может продолжать привлекать таланты для смены работы».

Он объяснил: «Чтобы найти баланс между искусственным интеллектом во благо и искусственным интеллектом ради прибыли, с точки зрения структуры управления, Anthropic создала трастовый комитет, состоящий из известных деятелей в обществе, для надзора за директорами. Они имеют право отстранять директоров. которые навсегда нарушают цель технологии. Кроме того, чтобы обеспечить внедрение системы, Anthropic также учредила специальный класс акций T, которыми будут владеть члены траста».

В мае этого года Амодей заявил на саммите: «У нас семь соучредителей. Три с половиной года спустя мы все еще находимся в компании».

Что касается проблем, с которыми сталкивается OpenAI, Тан Иньлян сказал: «Глядя на другие компании, занимающиеся искусственным интеллектом, модель Клода превзошла GPT в некоторых областях. Когда все мчатся по установленному маршруту Transformer, конечная точка и путь на самом деле очень ясны. В настоящее время, если ученые продолжат уходить, преимущество первопроходца OpenAI не является непреодолимым».

«В августе Маск также возобновил судебный процесс против OpenAl. С точки зрения финансов годовые убытки OpenAI могут достигать 5 миллиардов долларов США, а ее денежный поток может быть исчерпан в следующем году. На фоне внутренних и внешних опасений, в этом году должно стать хорошим началом для OpenAI. Это очень сложно», — сказал он.