Новости

Углубленный анализ: достигнут ли «добровольный надзор», обещанный такими гигантами искусственного интеллекта, как Google и Microsoft?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Год назад, включая Amazon, Microsoft, Google, Meta,OpenAIСемь компаний, занимающихся искусственным интеллектом, в том числе Anthropic и Inflection, достигли восьми добровольных обязательств перед Белым домом о том, как разрабатывать искусственный интеллект безопасным и заслуживающим доверия способом.

Эти обязательства включают усиление тестирования и прозрачности систем искусственного интеллекта, а также обмен информацией о потенциальных опасностях и рисках.

В годовщину подписания Добровольного обязательства издание MIT Technology Review обратилось к компаниям в области искусственного интеллекта, подписавшим обязательство, о некоторых подробностях их работы на данный момент. Их ответы указывают на некоторый многообещающий прогресс в технологической отрасли, но также и на некоторые существенные предостережения.

Эти добровольные обязательства принимаются вгенеративный искусственный интеллект Этот шаг вызван тем, что безумие «может быть в самом разгаре», когда компании спешат запустить свои собственные модели и сделать их больше и лучше, чем модели их конкурентов. В то же время мы также начинаем видеть дебаты по таким вопросам, как авторское право и дипфейки. Лобби влиятельных технологических деятелей, таких как Джеффри Хинтон, также выразило обеспокоенность тем, что ИИ может представлять экзистенциальный риск для человечества. Внезапно все заговорили о срочной необходимости обеспечить безопасность ИИ, и регуляторы повсюду вынуждены принять меры.

До недавнего времени развитие искусственного интеллекта напоминало «Дикий Запад». Соединенные Штаты традиционно неохотно регулируют своих технологических гигантов, вместо этого полагаясь на то, что они будут регулировать сами себя. Хорошим примером являются добровольные обязательства: это некоторые предписывающие правила в области искусственного интеллекта в США, но они по-прежнему являются добровольными и не могут быть соблюдены. Позже Белый дом издал указ, который расширил эти обязательства и распространил их на другие технологические компании и правительственные учреждения.

«Год спустя мы видим, что некоторые компании внедряют некоторые передовые методы работы со своими продуктами, но они далеки от того, что нам нужно с точки зрения надлежащего управления или защиты основных прав», - сказал Мерве в Центре искусственного интеллекта и цифровой политики. Хикок, президент и директор по исследованиям. Она ознакомилась с ответами компаний на запрос MIT Technology Review. «Многие из этих компаний продолжают продвигать необоснованные заявления о своих продуктах, например, о том, что они могут превосходить человеческий интеллект и способности», — добавила она.

Одна из тенденций, возникающих в результате этих ответов технологических компаний, заключается в том, что компании предпринимают все больше шагов для поиска технических решений, таких как конфронтация между красно-синими (когда люди исследуют недостатки моделей ИИ) и добавление водяных знаков в контент, созданный ИИ.

Риши Боммасани, директор Центра фундаментального моделирования Стэнфордского университета, сказал, что неясно, какие изменения произошли с этими обязательствами и будут ли компании реализовывать эти меры. Он также просмотрел ответы на MIT Technology Review.

Год — это большой срок в сфере искусственного интеллекта. После подписания добровольного обязательства основатель Inflection AI Мустафа Сулейман покинул компанию и присоединился к Microsoft, чтобы возглавить усилия, связанные с искусственным интеллектом. Компания Inflection отказалась от комментариев.

Представитель Белого дома Робин Паттерсон заявила: «Мы благодарны за прогресс, достигнутый ведущими компаниями в выполнении добровольных обязательств, выходящих за рамки требований исполнительного указа. Однако президент продолжает призывать Конгресс принять двухпартийный закон об искусственном интеллекте».

Брэнди Ноннеке, директор Лаборатории политики CITRIS в Калифорнийском университете в Беркли, сказала, что без всеобъемлющего федерального законодательства все, что Соединенные Штаты могут сейчас сделать, — это потребовать от компаний выполнения этих добровольных обязательств.

Но важно помнить, что «эти компании в основном готовятся к тесту, который им дают», — сказала Брэнди Ноннеке, — «поэтому мы должны внимательно посмотреть, действительно ли они подтверждают себя действительно строгим образом».

Вот наша оценка прогресса, достигнутого этими компаниями в области искусственного интеллекта за последний год.

Обязательство 1. Компании обязуются проводить внутреннее и внешнее тестирование безопасности своих систем ИИ перед их выпуском. Это тестирование, которое будет частично проводиться независимыми экспертами, защищает от некоторых из наиболее существенных источников рисков ИИ, таких как биобезопасность и кибербезопасность, а также от его более широких социальных последствий.

Обязательство 1: Проведите внутреннее и внешнее тестирование безопасности систем ИИ перед их выпуском. Часть этого тестирования будет проводиться независимыми экспертами и предназначена для защиты от некоторых наиболее важных источников рисков ИИ, таких как биобезопасность, кибербезопасность и более широкие социальные последствия.

Все компании (кроме Inflection, которая предпочла не комментировать) заявили, что проводили красно-синие конфронтации, чтобы позволить внутренним и внешним тестировщикам изучить недостатки и риски их моделей. OpenAI заявила, что у нее есть отдельная группа готовности, которая тестирует модели кибербезопасности, химических, биологических, радиологических и ядерных угроз, а также сложные модели искусственного интеллекта, которые могут совершать или убеждать человека делать то, что может причинить вред. Anthropic и OpenAI также заявили, что проведут эти тесты с привлечением сторонних экспертов, прежде чем выпускать новые модели.Например, для запуска своей последней модели Claude 3.5 Anthropic провела тестирование перед развертыванием с участием экспертов из Британского института безопасности искусственного интеллекта. Anthropic также разрешила некоммерческой исследовательской организации METR провести тестирование Claude 3.5 перед развертыванием.Автопилот Функционал был «предварительно изучен». Google заявила, что также проводит внутреннюю красно-синюю конфронтацию на своей модели Gemini, чтобы проверить границы контента, связанного с выборами, социальными рисками и проблемами национальной безопасности. Microsoft заявила, что работала со сторонними оценщиками из NewsGuard, организации, которая способствует журналистской честности, чтобы оценить риск и снизить риск неправомерного использования дипфейков в инструменте Microsoft для преобразования текста в изображение. В Meta заявили, что помимо противостояния красно-синим они также оценили свою последнюю модель Llama 3, чтобы увидеть, как она работает в ряде областей риска, включая оружие, кибератаки и эксплуатацию детей.

«Когда дело доходит до тестирования, недостаточно просто сообщить о том, что компания принимает меры», — сказал Риши Боммасани. Amazon и Anthropic, например, заявили, что объединили усилия с некоммерческой организацией Thorn для устранения рисков, которые искусственный интеллект представляет для безопасности детей. Он хотел бы узнать больше о том, как меры, которые реализует компания, на самом деле снижают эти риски.

«Мы должны четко понимать, что не только компании что-то делают, но и что эти вещи приносят желаемый эффект», — сказал Риши Боммасани.

результат: очень хороший. Продвижение красных и синих против различных рисков и их тестирование — важная работа. Однако Мерве Хикок хотела бы, чтобы независимые исследователи имели более широкий доступ к моделям компании.

Обязательство 2. Компании обязуются делиться информацией в рамках отрасли, а также с правительствами, гражданским обществом и академическими кругами по управлению рисками ИИ. Это включает в себя передовые практики по безопасности, информацию о попытках обойти меры безопасности и техническое сотрудничество.

Обязательство 2: Делитесь информацией об управлении рисками ИИ с промышленностью и правительством, гражданским обществом и научными кругами. Сюда входят лучшие практики обеспечения безопасности, информация о попытках обойти меры безопасности и техническое сотрудничество.

После подписания добровольного обязательства Google, Microsoft, Anthropic и OpenAI сформировали Frontier Model Forum, некоммерческую организацию для содействия обсуждению и действиям по вопросам безопасности и ответственности в области искусственного интеллекта. Позже к ним присоединились Amazon и Meta.

Риши Боммасани сказал, что партнерство с некоммерческими организациями, которые компании, занимающиеся искусственным интеллектом, финансируют сами, может противоречить духу добровольных обязательств. По его мнению, Форум Frontier Model Forum может стать для этих компаний способом сотрудничать друг с другом и распространять информацию о безопасности, что им часто трудно делать как конкурентам.

«Даже если они не раскроют информацию общественности, можно надеяться, что они хотя бы коллективно найдут способы снизить риск», — сказал Риши Боммасани.

Все семь подписавших сторон также являются членами Консорциума Института искусственного интеллекта по безопасности (AISIC), созданного Национальным институтом стандартов и технологий (NIST) для разработки руководящих принципов и стандартов для политики ИИ и оценки производительности ИИ. Крупный консорциум государственных и частных лиц. игроки сектора. Google, Microsoft и OpenAI также имеют представителей в Консультативной группе высокого уровня ООН по искусственному интеллекту.

Многие компании также подчеркнули свое исследовательское сотрудничество с научными кругами. Например, Google является частью MLCommons, где она работает с учеными над проведением межотраслевых эталонных исследований безопасности ИИ. Google также заявила, что активно предоставляет инструменты и ресурсы, такие как вычислительные кредиты, в такие программы, как пилотная программа Национального научного фонда «Национальные ресурсы для исследований искусственного интеллекта», целью которой является демократизация исследований в области искусственного интеллекта в Соединенных Штатах.

Многие компании также вносят свой вклад в Партнерство по искусственному интеллекту, еще одну некоммерческую организацию, основанную Amazon, Google, Microsoft, Facebook, DeepMind и IBM, для внедрения базовых моделей.

результат: Еще многое предстоит сделать. Поскольку отрасль работает вместе, чтобы сделать системы искусственного интеллекта безопасными и надежными, обмен дополнительной информацией, несомненно, является важным шагом в правильном направлении. Однако неясно, какая часть объявленных усилий действительно приведет к значимым изменениям, а какая будет просто косметической.

Обязательство 3. Компании обязуются инвестировать в кибербезопасность и защиту от внутренних угроз для защиты собственных и невыпущенных весов моделей. Эти веса моделей являются наиболее важной частью системы ИИ, и компании согласны с тем, что жизненно важно, чтобы веса моделей выпускались только тогда, когда это необходимо и когда учитываются риски безопасности.

Обязательство 3: Инвестируйте в меры кибербезопасности и защиты от внутренних угроз для защиты проприетарных и невыпущенных моделей. Эти веса моделей являются наиболее важной частью системы искусственного интеллекта, и компании согласны с тем, что крайне важно публиковать веса моделей только намеренно и с учетом рисков безопасности.

За последний год многие компании внедрили новые меры кибербезопасности. Например, Microsoft запустила «Инициативу будущего безопасности» для борьбы с растущими масштабами кибератак. Microsoft заявляет, что веса ее моделей зашифрованы, чтобы снизить потенциальный риск кражи модели, и применяет строгую аутентификацию и контроль доступа при развертывании настраиваемых моделей.

Google также запустил программу киберзащиты с использованием искусственного интеллекта. В мае OpenAI поделилась шестью новыми мерами, которые она разрабатывает в дополнение к своим существующим практикам кибербезопасности, таким как распространение криптографической защиты на оборудование искусственного интеллекта, а также у нее есть программа грантов по кибербезопасности, которая позволяет исследователям использовать ее модель для создания средств защиты кибербезопасности.

Amazon заявила, что также приняла конкретные меры против атак, уникальных для генеративного ИИ, таких как «отравление данных» и «внедрение слов-подсказок», которые могут использовать подсказки, чтобы заставить языковые модели игнорировать предыдущие инструкции и средства защиты.

Через несколько дней после подписания добровольного обязательства Anthropic опубликовала подробную информацию о своих мерах безопасности, которые включают общие методы кибербезопасности, такие как контроль доступа к моделям и весу моделей, а также проверку и контроль сторонних цепочек поставок. Компания также работает с независимыми оценщиками, чтобы оценить, соответствуют ли разрабатываемые ею средства контроля потребностям кибербезопасности.

результат: очень хороший. Все компании заявляют, что предприняли дополнительные шаги для защиты своих моделей, хотя, похоже, не существует единого мнения о лучших способах защиты моделей ИИ.

Обязательство 4. Компании обязуются содействовать обнаружению и сообщению третьими лицами уязвимостей в своих системах ИИ. Некоторые проблемы могут сохраняться даже после выпуска системы ИИ, а надежный механизм отчетности позволяет быстро находить и устранять их.

Обязательство 4: Помогайте третьим сторонам обнаруживать и сообщать об уязвимостях в их системах искусственного интеллекта. Даже после выпуска системы искусственного интеллекта некоторые проблемы могут все еще существовать, а мощный механизм отчетности может позволить быстро обнаруживать и своевременно устранять проблемы.

Одним из самых популярных способов выполнить это обещание является реализация программы «Bug Bounty», которая вознаграждает людей за обнаружение недостатков в системах искусственного интеллекта. В том числе Google, Microsoft, Meta, Anthropic и OpenAI запустили такие планы в отношении систем искусственного интеллекта. Amazon и Anthropic также заявили, что установили на своих веб-сайтах формы, куда исследователи безопасности могут отправлять отчеты об уязвимостях.

По мнению Брэнди Ноннеке, могут потребоваться годы, чтобы понять, как хорошо выполнять работу по стороннему аудиту. «Это не просто техническая задача, а социотехническая задача. Нам потребуются годы не только на то, чтобы разобраться в технических стандартах искусственного интеллекта, но и на то, чтобы разобраться в социотехнических стандартах, что сложно и сложно». " она сказала. .

Брэнди Ноннеке сказала, что она обеспокоена тем, что первые компании, которые внедрят сторонний аудит, могут создать плохой прецедент для того, как думать о социотехнических рисках искусственного интеллекта и устранять их. Например, аудит может определять, оценивать и устранять определенные риски, но игнорировать другие.

результат: Еще многое предстоит сделать. Награды за обнаружение ошибок — это здорово, но они недостаточно всеобъемлющи. Новые законы, такие как законопроект ЕС об искусственном интеллекте, потребуют от технологических компаний проведения аудитов, и было бы лучше, если бы технологические компании поделились историями успеха таких аудитов.

Обязательство 5. Компании обязуются разрабатывать надежные технические механизмы, чтобы гарантировать, что пользователи знают, когда контент сгенерирован ИИ, например, система водяных знаков. Это действие позволяет процветать творчеству с ИИ, но снижает опасность мошенничества и обмана.

Обязательство 5:Разработка мощных технических механизмов, позволяющих пользователям знать, какой контент создается с помощью ИИ, таких как «системы водяных знаков», позволяет процветать творчеству ИИ, одновременно снижая риск мошенничества и обмана.

Многие компании создали системы водяных знаков для контента, созданного искусственным интеллектом. Например, Google запустила SynthID, инструмент для нанесения водяных знаков на изображения, аудио, текст и видео, созданные Gemini. Компания Meta разработала инструмент для создания водяных знаков на изображениях под названием «Stable Signature» и инструмент для создания водяных знаков для голосовых сообщений под названием «AudioSeal». Amazon теперь добавляет «невидимый водяной знак» к изображениям, созданным с помощью модели генерации изображений Titan. OpenAI использовала водяные знаки в своей собственной речевой модели Voice Engine и создала классификатор обнаружения изображений, созданных DALL-E 3. Anthropic — единственная компания, которая еще не создала инструмент для нанесения водяных знаков, поскольку водяные знаки предназначены в первую очередь для изображений, а модель Claude компании не поддерживает изображения.

Все компании, за исключением Inflection, Anthropic и Meta, также являются членами Content Provenance and Authenticity Alliance (C2PA), отраслевого альянса, который будет обсуждать вопросы, связанные с тем, когда контент был создан, а также был ли он создан или отредактирован искусственным интеллектом или людьми. встроен в метаданные изображения. Microsoft и OpenAl автоматически добавляют исходные метаданные C2PA к изображениям, созданным с помощью DALL-E 3, и видео, созданным с помощью Sora. Хотя Meta не является членом альянса, она объявила, что использует стандарт C2PA для идентификации изображений, созданных искусственным интеллектом, на своей платформе.

«Шесть компаний, подписавших добровольное обязательство, естественным образом тяготеют к технологическим подходам к устранению рисков, и это особенно верно в отношении систем водяных знаков», — сказал Риши Боммасани.

«Вопрос в том, смогут ли «технические решения» добиться значимого прогресса и решить основные социальные проблемы, которые заставляют нас задуматься о том, создается ли контент машинным способом?», — добавил он.

результат: очень хороший. В целом, это обнадеживающий результат, и хотя система водяных знаков все еще является экспериментальной и ненадежной, все же приятно видеть исследования, связанные с ней, и приверженность стандарту C2PA. Это лучше, чем ничего, особенно в напряженный год выборов.

Обязательство 6. Компании обязуются публично сообщать о возможностях, ограничениях и областях надлежащего и ненадлежащего использования своих систем ИИ. Этот отчет будет охватывать как риски безопасности, так и социальные риски, такие как влияние на справедливость и предвзятость.

Обязательство 6: Публично сообщать о возможностях, ограничениях и областях, в которых их системы ИИ подходят для использования. В отчете будут рассмотрены риски безопасности и социальные риски, такие как влияние на справедливость и предвзятость.

Обещание Белого дома оставляет много места для интерпретации; например, компании могут технически соблюдать такие требования к публичному раскрытию информации, если они двигаются в этом направлении, в то время как уровни прозрачности могут сильно различаться.

Здесь наиболее распространенным решением, предлагаемым технологическими компаниями, является так называемая «модельная карта». Хотя каждая компания называет их немного по-разному, по сути они служат своего рода описанием продукта для модели ИИ. Они могут охватывать все: от возможностей и ограничений модели (в том числе способы измерения критериев справедливости и объяснимости) до аутентичности, надежности, управления, конфиденциальности и безопасности. Anthropic заявила, что также проверит модель на предмет потенциальных проблем с безопасностью, которые могут возникнуть позже.

Microsoft выпустила свой ежегодный отчет об ответственном искусственном интеллекте, в котором рассказывается о том, как компания создает приложения, использующие генеративный искусственный интеллект, принимает решения и контролирует развертывание этих приложений. Microsoft также заявила, что ясно дает понять, где и как искусственный интеллект используется в ее продуктах.

результат: Еще многое предстоит сделать. Мерве Хикок сказала, что повышение прозрачности в структурах управления и финансовых отношениях между компаниями будет областью для улучшения для всех компаний, и она также хотела бы, чтобы компании были более прозрачными в отношении источников данных, процессов обучения моделей, инцидентов безопасности и использования энергии.

Обязательство 7. Компании обязуются уделять первостепенное внимание исследованиям социальных рисков, которые могут представлять системы ИИ, в том числе по избежанию вредных предубеждений и дискриминации, а также защите конфиденциальности. История ИИ показывает коварность и распространенность этих опасностей, и компании обязуются внедрять ИИ, который их смягчает.

Обязательство 7: Уделяйте приоритетное внимание исследованиям социальных рисков, которые могут нести системы искусственного интеллекта, включая предотвращение вредных предубеждений, дискриминации и защиту конфиденциальности. Послужной список ИИ показывает, насколько коварны и распространены эти опасности, и эти компании обещают, что ИИ сможет их смягчить.

Технологические компании были заняты проведением исследований в области безопасности и включением результатов в свои продукты. Amazon построила «ограждения» для «Amazon Bedrock», которые могут обнаруживать галлюцинации, а также обеспечивать безопасность, конфиденциальность и защиту подлинности. Anthropic заявила, что наняла исследовательскую группу, занимающуюся изучением социальных рисков и конфиденциальности, и за последний год представила новые возможности для спуфинга, взлома, стратегий снижения дискриминации и моделей, которые подделывают их собственный код или выполняют исследования убеждения. OpenAI заявляет, что научила свои модели избегать «ненавистнического контента» и отвергать ненавистнический или экстремистский контент, а также научила GPT-4V отклонять многие запросы, требующие ответов, основанных на стереотипах. Google DeepMind также опубликовал исследование, оценивающее опасные возможности, и провел исследование неправильного использования генеративного ИИ.

Все компании вкладывают значительные средства в исследования в этой области. Google, например, инвестировал миллионы долларов в создание нового Фонда безопасности искусственного интеллекта для продвижения исследований в этой области посредством передовых форумов по моделированию. Microsoft заявила, что выделила 20 миллионов долларов на финансирование изучения социальных рисков через Национальный ресурс исследований искусственного интеллекта и запустила программу ускорения исследований моделей искусственного интеллекта, программу ускорения фундаментальных исследований моделей. Компания также наняла 24 человека, специализирующихся на исследователях в области искусственного интеллекта и ИИ. социология.

результат: очень хороший. Этого обещания легко достичь, поскольку его подписанты являются одними из крупнейших и богатейших корпоративных исследовательских лабораторий в области искусственного интеллекта в мире. Хотя дополнительные исследования о том, как сделать системы ИИ безопасными, являются долгожданным шагом, критики отмечают, что сосредоточение внимания на исследованиях безопасности отнимает внимание и ресурсы от исследований ИИ, которые фокусируются на более непосредственных вредах, таких как дискриминация и предрассудки.

Обязательство 8. Компании обязуются разрабатывать и внедрять передовые системы ИИ, чтобы помочь решить самые большие проблемы общества. От профилактики рака до смягчения последствий изменения климата и многого другого, ИИ — при правильном управлении — может внести огромный вклад в процветание, равенство и безопасность всех.

Обязательство 8:Разработка и внедрение передовых систем искусственного интеллекта, которые помогут решить самые большие проблемы общества, от профилактики рака до смягчения последствий изменения климата и во многих других областях, при правильном управлении искусственный интеллект может значительно способствовать человеческому процветанию, равенству и безопасности.

С тех пор, как они дали это обещание, технологические компании начали решать множество проблем. Например, Pfizer использует Claude для оценки тенденций в исследованиях в области лечения рака после сбора соответствующих данных, а американская биофармацевтическая компания Gilead использует генеративный искусственный интеллект Amazon Web Services для проведения технико-экономических обоснований клинических исследований и анализа наборов данных.

Google DeepMind имеет большой опыт запуска инструментов искусственного интеллекта, которые помогают ученым. Например, AlphaFold 3 может предсказывать структуру и взаимодействие практически всех живых молекул. AlphaGeometry решает геометрические задачи на уровне, сравнимом с уровнем лучших старшеклассников. GraphCast — это модель искусственного интеллекта, способная прогнозировать погоду на средний срок. Тем временем Microsoft использует спутниковые снимки и искусственный интеллект для улучшения реагирования на лесные пожары на Мауи, Гавайи, а также составляет карты групп населения, уязвимых к воздействию климата, что помогает исследователям выявлять такие риски, как отсутствие продовольственной безопасности, вынужденная миграция и болезни.

Тем временем OpenAI объявила о сотрудничестве и финансировании нескольких исследовательских проектов, например, о том, как преподаватели и ученые могут безопасно использовать мультимодальные модели ИИ в лабораторных условиях. Компания также финансирует «хакатоны», чтобы помочь исследователям развивать чистую энергетику на своей платформе.

результат: очень хороший. Некоторые работы в таких областях, как использование искусственного интеллекта для содействия научным открытиям или прогнозирования погоды, действительно интересны. Компании, занимающиеся ИИ, еще не используют ИИ для предотвращения рака, а это довольно высокая планка для начала.

В целом, есть некоторые положительные изменения в том, как создается ИИ, такие как конфронтация между красно-синими, системы водяных знаков и новые способы обмена передовым опытом между отраслями. Однако это лишь некоторые из гениальных технологических решений, найденных для решения запутанной социотехнической проблемы опасностей ИИ, и предстоит еще многое сделать. Год спустя в обещании по-прежнему уделяется слишком большое внимание определенному типу безопасности ИИ, который фокусируется на «гипотетических рисках», таких как биологическое оружие, но при этом не упоминается о защите потребителей, дипфейках, данных и авторском праве, а также о воздействии ИИ на окружающую среду — упущения, которые сегодня кажутся. прямо странно.

Оригинальная ссылка:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promized-the-white-house-to-self-regulate-one-year-ago-whats-changed/