Новости

Альтмана обвинили в нечестности в отношении работы по обеспечению безопасности OpenAI

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Отчет Whip Bull от 3 августа, согласно зарубежным сообщениям, после того, как информатор заявил Комиссии по ценным бумагам и биржам США (SEC), что соглашение о конфиденциальности компании искусственного интеллекта OpenAI незаконно не позволяет сотрудникам раскрывать основные проблемы безопасности законодателям, OpenAI сталкивается с растущим давлением. Будет большее давление, чтобы доказать, что он не скрывает риски ИИ.

Вчера в письме в OpenAI сенатор Чак Грассли (республиканец от Айовы) попросил предоставить доказательства того, что OpenAI больше не требует подписей, что может помешать ее сотрудникам подавать запросы государственным регулирующим органам. Соглашение о защите раскрытия информации.

В частности, Грассли попросил OpenAI предоставить текущие соглашения о трудоустройстве, выходном пособии, неунижении и конфиденциальности, чтобы заверить Конгресс, что контракты не препятствуют раскрытию информации.

Грассли сказал, что это очень важно, чтобы мы могли положиться на информаторов, которые раскрывают возникающие угрозы, и помочь разработать эффективную политику в области ИИ, которая защищает от существующих рисков ИИ, возникающих в результате технологических достижений.

В письме Грассли говорилось, что он, очевидно, дважды обращался к OpenAI за этими записями, но не получил ответа.

Представитель Грассли Клэр Слэттери сообщила The Washington Post, что OpenAI до сих пор не ответила на свой последний запрос о документах.

«Недостаточно сказать, что вы сделали обновление», — сказал Грассли в заявлении, предоставленном Ars. «Факты говорят громче, чем слова. Альтману необходимо предоставить записи и ответить на мой запрос о надзоре, чтобы Конгресс мог точно оценить, адекватно ли OpenAI защищает своих сотрудников и пользователей».

Помимо недавнего обращения к OpenAI с просьбой обновить свое соглашение с сотрудниками, Грассли также призвал OpenAI быть более прозрачным в отношении общего количества запросов сотрудников, требующих раскрытия федеральной информации с 2023 года.

Сенаторы хотели знать, какую информацию сотрудники хотели раскрыть чиновникам и действительно ли OpenAI одобрила их запросы.

Аналогичным образом Грассли попросил OpenAI подтвердить, сколько расследований SEC она открыла с 2023 года.

В совокупности документы покажут, запрещено ли сотрудникам OpenAI по-прежнему раскрывать федеральную информацию, какие типы раскрытий OpenAI отрицает и в какой степени SEC контролирует OpenAI на предмет сокрытия угроз безопасности.

Грассли написал в письме: OpenAI должна гарантировать, что ее сотрудники могут предоставлять защищенную информацию без незаконных ограничений.

Он попросил OpenAI ответить до 15 августа, чтобы Конгресс мог провести объективный и независимый надзор за протоколами безопасности OpenAI и соглашениями о конфиденциальности.

OpenAI не сразу ответила на запрос Ars о комментариях.

На .

Он также подтвердил, что OpenAI хочет, чтобы нынешние и бывшие сотрудники чувствовали себя комфортно, высказывая опасения.

«Это критически важно для любой компании, но особенно для нас, поскольку это важная часть нашей программы безопасности», — написал Альтман. В мае мы устранили положение о неущемлении достоинства нынешних и бывших сотрудников, а также положение, которое давало OpenAI право аннулировать переданный капитал (хотя он никогда не использовался). Мы прилагаем все усилия, чтобы это исправить.

В июле информатор сообщил Комиссии по ценным бумагам и биржам, что OpenAI должна быть обязана предоставлять не только текущие контракты сотрудников, но и все контракты, которые содержат соглашения о конфиденциальности, чтобы гарантировать, что OpenAI не скрывает исторические или текущие методы сокрытия рисков безопасности ИИ. Они хотят, чтобы все нынешние и бывшие сотрудники были уведомлены о любых контрактах, содержащих незаконные соглашения о конфиденциальности, а также чтобы OpenAI штрафовалась за каждый незаконный контракт.

Сэма Альтмана обвинили в пренебрежительном отношении к вопросам безопасности ИИ

Но призывы к большей прозрачности со стороны OpenAI касаются не только законодателей. За день до открытого письма Грассли генеральный директор OpenAI Сэм Альтман опубликовал заявление по поводу X, в котором утверждалось, что OpenAI выделила достаточные ресурсы на усилия по обеспечению безопасности с июля прошлого года, но специалисты по проверке фактов X заявили в комментариях, что это заявление вводило в заблуждение и вызвало общественный резонанс.

Альтман написал: «Как мы говорили в июле прошлого года, мы обязались выделить не менее 20% наших вычислительных ресурсов на усилия по обеспечению безопасности во всей компании, что вызвало обеспокоенность в сообществе, которую, по мнению многих предвзятых читателей X, дает больше контекста.

В сообщении сообщества отмечается, что Альтман имел в виду июльский блог, который прямо подтвердил, что OpenAI выделяет 20% вычислительных ресурсов своей команде Super Alignment. Теперь, когда команда распущена, а главный научный сотрудник, ответственный за Hyper-Alignment, покинул компанию, комментаторы X говорят, что заявления Альтмана ввели общественность в заблуждение относительно того, какие вычислительные ресурсы OpenAI на самом деле выделяет для своих теперь смутно определенных усилий по обеспечению безопасности.

Некоторые комментаторы X запросили более подробную информацию о текущих усилиях OpenAI по обеспечению безопасности. В письме от 31 июля в ответ пяти другим сенаторам по вопросам безопасности ИИ OpenAI более подробно объяснила свои усилия по обеспечению безопасности. Компания также уточнила заявление Альтмана о том, что X отметил его как требующее «большего контекста», написав, что вычислительные ресурсы, упомянутые в блоге, ни в коем случае не должны относиться только к команде Super Alignment.

В письме сенаторам OpenAI заявила: «Для дальнейшего продвижения нашей программы исследований в области безопасности в июле прошлого года мы обязались выделить не менее 20% вычислительных ресурсов на безопасность ИИ в течение нескольких лет». Это обязательство всегда применимо к усилиям по обеспечению безопасности всей компании, а не только отдельной команды.

Это смущает некоторых людей, поскольку в блоге OpenAI четко указано, что OpenAI в течение следующих четырех лет направит 20% компьютерных ресурсов, которые мы приобрели, на решение проблемы координации сверхразума. В то время OpenAI заявила, что ее основной ставкой на фундаментальные исследования является ее бывшая супер-скоординированная команда, которой «нужны вычислительные ресурсы, потому что хорошая работа имеет решающее значение для достижения нашей миссии».

Один

OpenAI еще не ответила на мем-аккаунт, но ранее заявляла, что супер-скоординированные команды имеют решающее значение для безопасности ИИ, поскольку обществу нужны научные и технологические прорывы для управления и контроля систем ИИ, которые умнее нас.

OpenAI подробно описывает инициативы в области безопасности

В письме OpenAI сенаторам директор по стратегии Джейсон Квон сообщил законодателям, что OpenAI защищает от рисков, работая с внешними экспертами для оценки и составления команды наших моделей. Это включало консультации с более чем 100 внешними экспертами, которые помогли оценить риски, связанные с нашей последней моделью GPT-4o.

Квон пишет: «Выводы и меры по снижению безопасности, полученные в результате тестирования красной команды, общедоступны в системных карточках, сопровождающих наши модели, а OpenAI опубликовала документ «Измерение химических, биологических, радиологических и ядерных (ХБРЯ) рисков, связанных с системами искусственного интеллекта». «Исследование, которое оценивает степень влияния языковых моделей на различные профессии и отрасли, оценивает влияние языковых моделей на операции и объясняет интерпретируемость решений системы искусственного интеллекта.

Чтобы еще больше обеспечить безопасность ИИ, Квон сказал, что OpenAI будет осуществлять итеративное развертывание, сначала выпуская новые функции, такие как видеомодель Sora или речевой движок, для ограниченной группы, а затем широко публикуя их.

Квон написал: «Эта стратегия позволяет нам получать отзывы от людей за пределами OpenAI, обновлять наши меры безопасности по мере необходимости и сообщать общественности о предстоящих функциях ИИ, прежде чем полностью раскрыть нашу модель.

По словам Квона, для сотрудников, разрабатывающих новые функции или модели, которые все еще боятся возмездия за сообщение о проблемах с безопасностью, OpenAI запустила в марте горячую линию по обеспечению честности. Этот канал позволяет сотрудникам анонимно сообщать о проблемах, если им неудобно поднимать проблемы через другие существующие каналы.

Хотя OpenAI заявляет, что сотрудники могут свободно говорить о любых проблемах, ясно, что если OpenAI сочтет определенную информацию угрозой безопасности, ее все равно нельзя будет разглашать.

Квон пишет: OpenAI продолжает проводить различие между сообщением о проблемах и разглашением коммерческой тайны компании. Последнее (защищенное право на раскрытие информации) по-прежнему запрещено соглашениями о конфиденциальности с нынешними и бывшими сотрудниками. Мы считаем, что этот запрет особенно важен, учитывая влияние, которое наши технологии оказывают на национальную безопасность США.

Учитывая, что это исключение позволяет OpenAI отрицать раскрытие информации на федеральном уровне, Грассли, вероятно, хотел выяснить, могла ли OpenAI неправомерно отклонять раскрытие информации на основании защиты коммерческой тайны.

Письмо Грассли ясно дало понять, что сенаторы обеспокоены рисками для самоконтроля безопасности компаний.