новости

ультрамен покидает комитет безопасности openai: он может решить, выпускать ли крупные модели

2024-09-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

whips сообщила, что 17 сентября, по зарубежным данным, генеральный директор openai сэм альтман покинет созданный openai в мае внутренний комитет, отвечающий за контроль над ключевыми решениями по безопасности, связанными с проектами и операциями компании.

openai сообщила сегодня в своем блоге, что комитет по безопасности и защите станет независимой надзорной группой под председательством профессора университета карнеги-меллона зико колтера, в состав которого войдут генеральный директор quora адам д'анджело, генерал армии сша в отставке пол накасоне и бывший исполнительный вице-президент sony. президент николь селигман.

все они являются действующими членами совета директоров openai.

openai отметила в своем сообщении, что комитет провел проверку безопасности последней модели искусственного интеллекта openai o1, хотя альтман все еще участвует.компания заявила, что группа продолжит получать регулярные брифинги от команды безопасности openai, и оставляет за собой право отложить выпуск до тех пор, пока не будут решены проблемы безопасности.

openai написала в своем сообщении: «в рамках своей работы совет по безопасности будет продолжать получать регулярные отчеты о технической оценке текущих и будущих моделей, а также текущие отчеты о мониторинге после выпуска. мы создаем комплексную систему безопасности на основе наших процессов и методов выпуска моделей, чтобы четко определить критерии успеха для выпуска моделей.

уход альтмана из комитета по охране и безопасности произошел после того, как пять сенаторов сша подняли вопросы о политике openai в письме альтману этим летом.

почти половина сотрудников openai, которые когда-то занимались долгосрочными рисками искусственного интеллекта, ушли, а бывшие исследователи openai обвинили альтмана в том, что он выступает против реального регулирования ии в пользу политики, которая продвигает корпоративные цели openai.

по их словам, openai значительно увеличила расходы на федеральное лоббирование, выделив бюджет в $800 000 на первые шесть месяцев 2024 года по сравнению с $260 000 за весь прошлый год.

ранее этой весной альтман также присоединился к совету безопасности и безопасности искусственного интеллекта министерства внутренней безопасности сша, который консультирует по вопросам разработки и внедрения искусственного интеллекта в критической инфраструктуре сша.

даже если альтмана уволят, мало что указывает на то, что комитет по безопасности примет жесткие решения, которые серьезно повлияют на коммерческую дорожную карту openai.

примечательно, что в мае openai заявила, что будет стремиться рассматривать обоснованную критику своей работы через комитет — обоснованная критика, конечно, зависит от восприятия наблюдателя.

в мае бывшие члены правления openai хелен тонер и таша макколи заявили в статье в the economist, что, по их мнению, openai не заслуживает доверия и не может взять на себя ответственность.

они пишут: «основываясь на нашем опыте, мы считаем, что автономия не может надежно противостоять давлению стимулов прибыли.

а стимулы для получения прибыли openai продолжают расти.

по слухам, компания привлечет более 6,5 миллиардов долларов финансирования, что оценивает openai в более чем 150 миллиардов долларов. чтобы заключить сделку, openai, скорее всего, откажется от своей гибридной некоммерческой корпоративной структуры, которая предназначена для ограничения доходов инвесторов, отчасти для того, чтобы openai продолжала соответствовать своей основной миссии: разрабатывать общий искусственный интеллект, приносящий пользу всему человечеству.