новости

Гигант Тьюринга снова распался! Законопроект об ограничении искусственного интеллекта в Калифорнии, поддержанный Хинтоном, первоначально принят, ЛеКунь, Ли Фейфей, Ву Энь

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Новый отчет мудрости

Редактор: Так хочется спать

[Введение в новую мудрость]Калифорнийский «Закон об ограничении использования ИИ» первоначально был успешно принят на фоне сильной оппозиции со стороны магнатов ИИ, крупных технологических компаний, стартапов и венчурных капиталистов.

Как мы все знаем, если не считать интерпретаций в различных научно-фантастических фильмах, ИИ никого не убивал в реальном мире и не проводил крупномасштабных кибератак.

Однако некоторые законодатели США все еще надеются, что адекватная безопасность может быть реализована до того, как это мрачное будущее станет реальностью.


Буквально на этой неделе Калифорнийский Закон о передовых моделях безопасности в области искусственного интеллекта, SB 1047, снова сделал важный шаг на пути к тому, чтобы стать законом.


Проще говоря, SB 1047 не позволит системам искусственного интеллекта вызывать массовые жертвы или вызывать инциденты в области кибербезопасности, стоимость которых превышает 500 миллионов долларов, путем привлечения разработчиков к ответственности.

Однако противодействие со стороны научных кругов и промышленности было настолько сильным, что законодатели Калифорнии пошли на небольшой компромисс, добавив несколько поправок, предложенных стартапом в области искусственного интеллекта Anthropic и другими оппонентами.

По сравнению с первоначальным предложением, текущая версия ограничивает полномочия правительства Калифорнии по привлечению к ответственности лабораторий искусственного интеллекта.


Адрес счета: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047.

Но даже в этом случае (почти) никому не нравится SB 1047.

Гиганты искусственного интеллекта, такие как Ян ЛеКун, Ли Фейфей и Нг Энда, неоднократно выражали свое недовольство этим законопроектом, который «душит искусственный интеллект с открытым исходным кодом и вынуждает приостанавливать или даже останавливать инновации в области искусственного интеллекта».




Также одно за другим появляются различные совместные письма:

Более 40 исследователей из Калифорнийского университета, Университета Южной Калифорнии, Стэнфордского университета и Калифорнийского технологического института не только настоятельно призвали не принимать этот законопроект.



А восемь членов Конгресса, представляющие различные округа Калифорнии, также призвали губернатора наложить вето на законопроект.




ЛеКун даже скопировал исходное сообщение, которое он использовал, когда призывал к мораторию на исследования в области ИИ: пожалуйста, приостановите действие законодательства в области ИИ на шесть месяцев!


Итак, вопрос в том, почему в предыдущей статье использовалось «почти все»?

Потому что, помимо Лекуна, два других гиганта Тьюринга — Йошуа Бенджио и Джеффри Хинтон — решительно поддерживают принятие этого законопроекта.

Мне даже кажется, что нынешние условия слишком свободны.


Как старшие исследователи технологий и политики искусственного интеллекта, мы пишем, чтобы выразить нашу решительную поддержку законопроекта Сената Калифорнии № 1047. SB 1047 излагает основные требования для эффективного регулирования этой технологии. Он не внедряет систему лицензирования, не требует от компаний получения разрешения от государственных органов перед обучением или внедрением моделей, полагается на то, что компании самостоятельно оценивают риски, и не требует от компаний строгой ответственности даже в случае стихийного бедствия. Это относительно мягкое законодательство относительно масштаба рисков, с которыми мы сталкиваемся. Отмена основных мер законопроекта была бы исторической ошибкой, которая станет еще более очевидной через год, когда будет выпущено следующее поколение более мощных систем искусственного интеллекта.

Сегодня законопроект SB 1047 сравнительно легко прошел в Законодательном собрании Калифорнии, несмотря на сильную оппозицию со стороны некоторых конгрессменов США, известных исследователей искусственного интеллекта, крупных технологических компаний и венчурных капиталистов.

Затем SB 1047 отправится в Ассамблею Калифорнии для окончательного голосования. Из-за внесения последних поправок после принятия законопроекта его необходимо будет отправить обратно в Сенат Калифорнии для голосования.

Если оба эти голоса пройдут успешно, SB 1047 будет отправлен губернатору для ожидания окончательного вето или подписания закона.

Какие модели и компании будут ограничены?

Согласно требованиям SB 1047, разработчики или компании, разрабатывающие модели, должны нести ответственность за предотвращение использования их моделей ИИ для причинения «значительного вреда».

Например, создание оружия массового поражения или проведение кибератак стоимостью более 500 миллионов долларов. Кстати, «Глобальный инцидент с синим экраном Windows» CrowdStrike принес убытки на сумму более 5 миллиардов долларов.

Однако правила SB 1047 применяются только к очень большим моделям ИИ, то есть затраты на обучение составляют не менее 100 миллионов долларов и более 10 ^ 26 операций с плавающей запятой. (В основном на основе стоимости обучения GPT-4)

Говорят, что объем вычислений, необходимый для следующего поколения Llama 4 от Meta, увеличится в 10 раз и, следовательно, также будет подлежать надзору SB 1047.

За модели с открытым исходным кодом и их доработанные версии ответственность несут первоначальные разработчики. Разве что стоимость достигнет в 3 раза стоимости исходной модели.

С этой точки зрения неудивительно, что реакция Лекуна была такой бурной.

Кроме того, разработчики должны создать процедуры тестирования, учитывающие риски модели ИИ, и ежегодно нанимать сторонних аудиторов для оценки своих методов обеспечения безопасности ИИ.

Для продуктов ИИ, созданных на основе моделей, необходимо разработать соответствующие протоколы безопасности для предотвращения злоупотреблений, включая кнопку «аварийной остановки», которая отключает всю модель ИИ.

и т. д……

Какова текущая функция SB 1047?

Сегодня SB 1047 больше не позволяет Генеральному прокурору Калифорнии подавать в суд на компании, занимающиеся искусственным интеллектом, за небрежные меры безопасности до того, как произойдет катастрофическое событие. (Предложение от Anthropic)

Вместо этого генеральный прокурор Калифорнии может добиться судебного запрета, требующего от компании прекратить операцию, которую она считает опасной, и по-прежнему может подать в суд на разработчиков ИИ, если их модели действительно приведут к катастрофическим событиям.

SB 1047 больше не учреждает новое правительственное агентство «Подразделение пограничного моделирования (FMD)», первоначально включенное в законопроект.

Однако ядро ​​FMD, Комитет пограничной модели, по-прежнему было создано и помещено в существующее правительственное оперативное агентство, а его численность была увеличена с прежних 5 до 9 человек. Комитет по-прежнему будет устанавливать пороговые значения вычислений для рассматриваемых моделей, выпускать рекомендации по безопасности и правила для аудиторов.

В SB 1047 также есть более свободные формулировки, когда речь идет об обеспечении безопасности моделей ИИ.

Теперь разработчикам нужно только обеспечить «разумную заботу», чтобы гарантировать, что модели ИИ не представляют значительного риска катастрофы, а не «разумную гарантию», которая требовалась ранее.

Кроме того, разработчикам нужно только представить публичное «заявление» с изложением своих мер безопасности, и им больше не нужно предоставлять подтверждение результатов испытаний безопасности под страхом наказания за лжесвидетельство.

Также существует отдельная защита для моделей тонкой настройки с открытым исходным кодом. Если кто-то потратит менее 10 миллионов долларов на доработку модели, он не считается разработчиком, и ответственность остается за первоначальным крупным разработчиком модели.

Ли Фейфэй однажды лично написал статью с критикой

Влияние SB 1047 на индустрию ИИ можно увидеть в колонке «Крестной матери ИИ» Ли Фейфей в журнале Fortune:

«Если он станет законом, SB 1047 нанесет вред зарождающейся американской экосистеме искусственного интеллекта, особенно тем ее частям, которые уже находятся в невыгодном положении: государственному сектору, академическим кругам и небольшим технологическим компаниям. исследования также не могут решить реальную проблему».


Во-первых, SB 1047 будет неоправданно наказывать разработчиков и душить инновации.

В случаях неправильного использования модели ИИ SB 1047 возлагает вину на ответственную сторону и первоначального разработчика модели. Для каждого разработчика ИИ, особенно для начинающих программистов и предпринимателей, невозможно предсказать все возможные варианты использования его моделей. SB 1047 заставит разработчиков принять защитные меры, чего следует избегать любой ценой.

Во-вторых, SB 1047 ограничит разработку с открытым исходным кодом.

SB 1047 требует, чтобы все модели, мощность которых превышает определенный порог, имели «кнопку аварийной остановки» — механизм, который может закрыть программу в любой момент. Если разработчики беспокоятся, что программы, которые они загружают и создают, будут удалены, они будут более неохотно писать код или сотрудничать. Эта кнопка аварийной остановки серьезно повлияет на сообщество открытого исходного кода — не только в области искусственного интеллекта, но и в бесчисленных источниках инноваций в таких разнообразных областях, как GPS, МРТ и сам Интернет.

В-третьих, SB 1047 нанесет ущерб исследованиям ИИ в государственном секторе и научных кругах.

Разработка открытого исходного кода важна в частном секторе, но особенно в академических кругах, которые не могут добиться прогресса без сотрудничества и доступа к модельным данным. Как исследователи смогут обучать следующее поколение лидеров ИИ, если у них нет доступа к соответствующим моделям и данным? Кнопка аварийной остановки еще больше ослабит академические круги, которые и без того находятся в невыгодном положении в отношении данных и вычислений. SB 1047 нанесет смертельный удар академическому ИИ в то время, когда нам следует больше инвестировать в ИИ государственного сектора.

Самое тревожное, что SB 1047 не рассматривает потенциальные риски развития ИИ, включая предвзятость и дипфейки. Вместо этого он устанавливает очень произвольный порог — определенный объем вычислительной мощности или модель, обучение которой стоит 100 миллионов долларов. Эта мера не только не обеспечивает защиту, но и ограничивает инновации в различных областях, включая академические круги.

Ли Фейфей заявила, что она не против управления ИИ. Законодательство имеет решающее значение для безопасного и эффективного развития ИИ. Однако политика в области ИИ должна поддерживать разработку с открытым исходным кодом, устанавливать единые и разумные правила и укреплять доверие потребителей.

Очевидно, что SB 1047 не соответствует этим стандартам.

Ссылки:

https://techcrunch.com/2024/08/15/california-weakens-bill-to-prevent-ai-disasters-before-final-vote-takeing-advice-from-anthropic/

https://techcrunch.com/2024/08/15/california-ai-bill-sb-1047-aims-to-prevent-ai-disasters-but-silicon-valley-warns-it-will-cause-one/

https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/