Новости

«Крестная мать искусственного интеллекта» Ли Фейфэй лично написала: Калифорнийский законопроект о безопасности искусственного интеллекта нанесет вред экосистеме США|Titanium Media AGI

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Как сообщает приложение TMTpost от 7 августа, «Крестная мать искусственного интеллекта», академик Национальной инженерной академии, академик Национальной медицинской академии, академик Американской академии искусств и наук, первый профессор кафедры секвойи в Стэнфордском университете, Декан Стэнфордского человеко-ориентированного института искусственного интеллекта (HAI) Фейфей Ли сегодня утром написал статью в журнале Fortune и отметил, что предстоящая реализация Закона о безопасности ИИ в Калифорнии нанесет вред разработчикам, научным кругам и даже всему миру. Экосистема ИИ в США, но это не решит потенциальный вред ИИ.

«Сегодня ИИ более развит, чем когда-либо. Однако с большой силой приходит и большая ответственность. Политики, гражданское общество и игроки отрасли ищут такой подход к управлению, который минимизирует потенциальный вред и формирует безопасное, ориентированное на человека общество ИИ. некоторые из этих усилий, но я настороженно отношусь к другим; Калифорнийский Закон о безопасных инновациях для передовых моделей искусственного интеллекта (далее именуемый SB-1047) попадает в эту последнюю категорию: «Этот закон будет иметь серьезные непредвиденные последствия не только для Калифорнии, но и для всей страны. по всей стране», — сказал Ли Фейфэй.

Сообщается, что в июле этого года Сенат Калифорнии одобрил версию законопроекта SB-1047, которая требует от разработчиков доказать, что их модели ИИ не будут использоваться для причинения вреда. Это больше, чем предложено более 600 законопроектов об ИИ. законодателями штатов США в этом году Слишком много ограничений, чтобы привлечь внимание. Это чрезвычайно разрушительное предложение может быть подписано губернатором Калифорнии Гэвином Ньюсомом в августе этого года.

Согласно определению законопроекта, Llama-3 компании Meta определяется как «передовая модель», обучение которой обходится более чем в 100 миллионов долларов. Meta также будет строго оштрафована, если кто-то будет использовать модель в незаконных целях. В то же время раздел 22603(a)(3)(4) Закона требует «ограниченного освобождения от пошлин» для подачи сертификации в государственные органы и прекращения эксплуатации модели в случае наличия ошибок, тогда как раздел 22603(b) требует разработчики могут сообщать о потенциальных инцидентах безопасности ИИ для любой модели. Если разработчик не может полностью контролировать различные производные версии, основанные на его модели, в случае возникновения инцидента безопасности ответственность будет принадлежать первому разработчику——Это эквивалентно солидарной ответственности.

Кроме того, раздел 22604(a)(b) законопроекта предусматривает, что когда пользователи используют свои «современные модели» и вычислительные ресурсы, разработчики должны предоставлять всю информацию о клиенте, включая личность клиента, номер кредитной карты, номер счета, и идентификационный идентификатор клиента, идентификатор транзакции, адрес электронной почты, номер телефона. При этом информация должна предоставляться раз в год и оцениваться поведение и намерения пользователя. Вся информация пользователя будет сохраняться в течение 7 лет, а также будет храниться в Таможенно-пограничной администрации.

Географическое положение Калифорнии в Соединенных Штатах очень особенное. Здесь расположены такие известные школы, как Стэнфорд, Калифорнийский технологический институт и Университет Южной Калифорнии, а также Google, Apple,OpenAI Здесь также находится штаб-квартира таких технологических гигантов, как Мета и Мета. Поэтому в этом отношении Янн ЛеКун, лауреат премии Тьюринга и главный научный сотрудник Meta, Ли Фейфей, Андриссен Горовиц, партнер-основатель инвестиционного института a16z, факультет компьютерных наук и факультет электротехники Стэнфордского университета, приглашенный профессор Эндрю Нг и другие. высказал возражения.

Среди них Ян Ликунь предупредил, что пункт о солидарной ответственности в законопроекте подвергнет платформы искусственного интеллекта с открытым исходным кодом огромным рискам... Мета не пострадает, но стартапы, занимающиеся искусственным интеллектом, обанкротятся. Сообщается, что если эти модели будут использоваться. злонамеренно со стороны других. Законопроект требует от разработчиков ИИ нести гражданскую и даже уголовную ответственность за модели, которые они разрабатывают.

Горовиц считает, что, хотя калифорнийский закон о борьбе с искусственным интеллектом имеет благие намерения, он может ослабить технологическую индустрию США из-за дезинформации как раз в тот момент, когда будущее технологий находится на критическом перепутье. Соединенным Штатам необходимо, чтобы лидеры осознали, что сейчас настал критический момент для принятия разумных и единых мер регулирования в области ИИ.

Эндрю Нг опубликовал статью, в которой заявил, что законопроект Калифорнии SB-1047 задушит развитие крупных моделей с открытым исходным кодом. Далее он отметил:Регулировать следует именно приложения ИИ, а не сами большие модели.

Ли Фейфэй считает, что политика в области ИИ должна поощрять инновации, устанавливать соответствующие ограничения и смягчать последствия этих ограничений. Политика, которая не обеспечивает этого, в лучшем случае не достигнет своих целей, а в худшем случае приведет к непредвиденным и серьезным последствиям. Если SB-1047 будет принят в качестве закона, это нанесет вред молодой американской экосистеме искусственного интеллекта, особенно тем ее частям, которые уже находятся в невыгодном положении из-за сегодняшних технологических гигантов: государственному сектору, научным кругам и «малым технологиям». SB-1047 будет излишне наказывать разработчиков, душить наше сообщество открытого исходного кода и препятствовать академическим исследованиям в области ИИ, не способствуя при этом решению реальных проблем, для решения которых он предназначен.

Ли Фейфей назвал четыре причины:

Во-первых, SB-1047 неоправданно накажет разработчиков и задушит инновации. Если модель ИИ используется не по назначению, SB-1047 будет привлекать к ответственности ответственных лиц и первоначальных разработчиков модели. Каждый разработчик ИИ (особенно начинающие программисты и предприниматели) не может предсказать все возможные варианты использования своей модели. SB-1047 заставит разработчиков отступить и занять оборонительную позицию — именно этого мы пытаемся избежать.

Во-вторых, SB-1047 ограничит разработку с открытым исходным кодом. SB-1047 требует, чтобы все модели, мощность которых превышает определенный порог, имели «выключатель», механизм, который может завершить работу программы в любой момент. Разработчики будут еще более неохотно писать код и сотрудничать, если они будут беспокоиться, что программы, которые они загружают и создают, будут удалены. Этот аварийный выключатель опустошит сообщество открытого исходного кода — источник бесчисленных инноваций не только в области искусственного интеллекта, но и во всем: от GPS до МРТ и самого Интернета.

В-третьих, SB-1047 ослабит исследования ИИ в государственном секторе и научных кругах. Разработка открытого исходного кода важна для частного сектора, но она также имеет решающее значение для научных кругов, которые не могут продвигаться вперед без сотрудничества и моделирования данных. Возьмем, к примеру, студентов-компьютерщиков, работающих над открытыми моделями ИИ. Если у наших учреждений нет доступа к соответствующим моделям и данным, как мы будем обучать следующее поколение лидеров ИИ? Аварийный выключатель еще больше подорвет усилия этих студентов и исследователей, которые уже находятся в невыгодном положении в отношении данных и вычислений по сравнению с крупными технологическими компаниями. SB-1047 станет «похоронным звоном» для научных кругов и государственного сектора искусственного интеллекта, которые должны удвоить инвестиции.

Самое тревожное, что законопроект не затрагивает потенциальный вред развития ИИ, включая предвзятость и дипфейки. Вместо этого SB-1047 устанавливает произвольный порог, регулирующий модели, которые используют определенное количество вычислительной мощности или обучение которых стоит 100 миллионов долларов. Эта мера не только не обеспечит защиту, но и лишь ограничит инновации в различных областях, включая академическую сферу.

Ли Фейфэй отметил, что сегодня модели ИИ в академических кругах находятся ниже этого порога, но если Соединенные Штаты изменят баланс инвестиций в ИИ в частном и государственном секторах, академические круги будут регулироваться SB-1047, и в результате экосистема ИИ в США станет хуже. . Поэтому Соединённые Штаты должны поступить наоборот.

«В многочисленных беседах с президентом Байденом за последний год я заявлял о необходимости «самоуверенного менталитета» для продвижения образования, исследований и разработок в области искусственного интеллекта в нашей стране. Однако ограничения SB-1047 слишком произвольны и затронут не только Калифорния. Экосистема ИИ также будет иметь тревожные последствия для ИИ по всей стране». Ли Фейфей отметила, что она не против управления ИИ. Законодательство имеет решающее значение для безопасного и эффективного развития ИИ. Но политика ИИ должна способствовать развитию открытого исходного кода, предлагать единообразные и разумные правила и укреплять доверие потребителей. SB-1047 не соответствует этим стандартам.

Ли Фейфей подчеркнула, что она предложила сотрудничество сенатору Скотту Винеру, автору законопроекта: «Давайте вместе сформулируем законодательство в области ИИ и по-настоящему построим общество будущего, основанное на технологиях и ориентированное на людей».

«На самом деле, будущее искусственного интеллекта зависит от этого. Калифорния — как новаторская организация и дом самой надежной экосистемы искусственного интеллекта в нашей стране — находится в центре движения искусственного интеллекта, и события в Калифорнии повлияют на остальную часть страны. .» — сказал Ли Фейфей в конце.