новости

Законопроект США об искусственном интеллекте значительно ослаблен! Круг искусственного интеллекта взрывается, Ли Фейфэй публично осудил это, все отечественные компании, занимающиеся искусственным интеллектом, обеспокоены этим.

2024-08-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


умные вещи
Автор Чэнь Джунда
РедактироватьПанкен

Чжидунси сообщил 16 августа, что только что в Калифорнии был объявлен скандальный «Закон о передовых инновациях в области безопасности моделей ИИ» (позже известный как Калифорнийский закон о безопасности ИИ).значительно ослабленПозже он успешно прошел проверку Комитета по ассигнованиям Палаты представителей Калифорнии.Регулирование правовых трудностей на национальном уровнеНа фоне этой дилеммы это стало важным шагом для США в регулировании ИИ. Однако некоторые люди в технологическом сообществе считают, что это так.В конечном итоге это нанесет ущерб Калифорнии и даже лидирующим позициям США в области искусственного интеллекта.

Самая большая поправка в измененном законопроекте заключается в том, чтобольше не разрешеноГенеральный прокурор Калифорнии подал в суд на компании, занимающиеся искусственным интеллектом, за игнорирование вопросов безопасности до того, как произошла катастрофа. Первоначальный законопроект предусматривает, что, если аудиторы обнаружат, что компании, занимающиеся искусственным интеллектом, занимаются незаконной деятельностью в повседневной деятельности, компании могут быть привлечены к ответственности. Это означает, что законопроектФокус регулирования смещается на реальный вред, также будетУменьшите давление на предприятия по соблюдению требований.

Большинство американских технологических компаний и стартапов в области искусственного интеллекта работают в Калифорнии.будет подчиняться Закону.В частности, в этом законопроекте основное внимание уделяется «Передовые модели искусственного интеллекта«Только разработчики, чьи затраты на вычислительную мощность для обучения моделей превышают 100 миллионов долларов США, столкнутся с нормативными требованиями. Существующие модели не входят в сферу надзора. В будущемLlama 4 и GPT-5 могут быть его основными объектами регулирования.

Для отечественных предприятий, если выполнять только тонкую настройку и другие операции на базе открытого исходного кода, есть большая вероятность, что это не попадет в сферу надзора. Однако законопроект требует, чтобы поставщики облачных услуг собирали информацию о клиентах, IP-адреса, способы оплаты и другую информацию, что облегчает работу регулирующих органов по отслеживанию. Если контроль еще более ужесточится, это может статьРегуляторные риски, с которыми сталкиваются некоторые китайские компании, занимающиеся искусственным интеллектом, которые используют зарубежные вычислительные мощности для обучения.

Предприятия, находящиеся в сфере надзора, должныпринять превентивные мерыЧтобы избежать злоупотребления моделью, вам также необходимо иметьмодель аварийного отключенияспособность. Кроме того, они обязаны представить публичное заявление с изложением своих методов обеспечения безопасности. Законопроект вводит «Ежегодная проверка”системы, разработчики обязаны ежегодно нанимать независимых аудиторов для оценки соответствия.

В случае возникновения незаконной деятельности компании могут столкнуться сот 10 до 30 миллионов долларов США.Эта сумма будет увеличиваться по мере увеличения стоимости обучения модели.

Круг ИИ раскололся на два лагеря, и разгорелись ожесточенные споры.

Лауреат премии Тьюринга 2018 годаДжеффри Хинтон(Джеффри Хинтон) иДжошуа Бенджио(Йошуа Бенджио) выразил свою поддержку и выразил мнение, что Калифорнийский закон о безопасности ИИ является эффективным регулированием технологий ИИ.Минимальные требования”。

Сотни предпринимателей подписалиИнкубатор ЮКБолее 100 ученых в Калифорнии также написали письма против.Институт венчурного капитала a16zСоздайте веб-сайт специально для подробного описания шести преступлений, предусмотренных Законом, профессор Стэнфордского университета.Ли ФейфейСпециально опубликованный в Твиттере с осуждением, основная мысль заключается в том, что этот законопроект будет препятствовать инвестициям и развитию искусственного интеллекта в Калифорнии.Значительный вред экосистеме с открытым исходным кодом, не учитывает существенные риски, связанные с ИИ.

Однако сенатор штата Калифорния Скотт Винер, автор законопроекта о регулировании искусственного интеллекта в Калифорнии, опроверг некоторую критику законопроекта, заявив, что a16z и YCнамеренно искажать фактыЭтот законопроект представляет собой оптимизацию существующей правовой базы, повышает актуальность надзора, не посадит большое количество разработчиков в тюрьму и не нанесет вреда инновациям и искусственному интеллекту с открытым исходным кодом.

Чжисиси собрал большой объем информации и обобщил конкретное содержание и связанные с ним обсуждения этого законопроекта в следующих пяти вопросах и ответах:

1. Какова сфера применения? Большинство существующих моделей неприменимы, а Llama 4 и GPT-5 могут войти в объем наблюдения.

Для достижения эффективного надзора в этом законопроекте изначально планировалось создать «Департамент пограничной модели (FMD)» для реализации соответствующих правил. С сегодняшними изменениями это подразделение преобразуется в комиссию из девяти членов в рамках правительственного агентства Калифорнии, в которую входят представители индустрии искусственного интеллекта, сообщества открытого исходного кода и научных кругов, и назначается губернатором и законодательным собранием Калифорнии. Совет по передовым моделям по-прежнему будет устанавливать пороговые значения вычислений для рассматриваемых моделей, издавать рекомендации по безопасности и правила для аудиторов.

Будучи одним из центров развития искусственного интеллекта в США и даже в мире, Калифорния привлекает большое количество компаний, занимающихся искусственным интеллектом. Более 30 из 50 крупнейших компаний, занимающихся искусственным интеллектом по версии журнала Forbes в 2024 году, работают в Калифорнии. Согласно этому законопроекту, все они должны соблюдать соответствующие положения Калифорнийского закона о безопасности ИИ. Однако реальная сфера применения данного акта будет существенно ограничена возможностями модели.Возможно, в ближайшие годы этим законопроектом будут регулироваться только ведущие игроки в сфере крупных моделей.


▲Скриншот части законопроекта о регулировании искусственного интеллекта штата Калифорния (Источник: официальный сайт Сената Калифорнии)

В этом законопроекте будет оцениваться, следует ли включать модель в сферу регулирования на основе вычислительной мощности и стоимости вычислительной мощности, используемой при обучении модели, то есть классифицировать ее как «Крытая модельСоответствующие правила можно свести к следующим двум пунктам:

1. Использовать до 1 января 2027 г.10^26и больше операций с целыми числами или с плавающей запятой (100 миллионов долларов США, исходя из средней рыночной цены вычислительной мощности) или использовать3*10^25Модель, полученная после точной настройки модели в диапазоне с вычислительной мощностью, будет указана как модель в диапазоне.

2. После 1 января 2027 г. вышеуказанные стандарты будут внедрены Управлением штата Калифорния.Новейшая модель регулятораСделайте оценку. Если департамент изменит порог вычислительной мощности, новый стандарт будет иметь преимущественную силу. Если департамент решит, что никаких изменений не требуется, первоначальный стандарт будет продолжать использоваться; Кроме того, после 2026 года первоначальный стандарт в размере 100 миллионов долларов США долженСкорректируйте соответствующим образом, чтобы принять во внимание инфляцию.

Так какая же из выпущенных сейчас моделей войдет в эту линейку? Существует множество способов расчета вычислительной мощности, используемой при обучении модели. OpenAI однажды примерно оценил ее в статье:

ФЛОПС=6ND

(где N — количество параметров, а D — количество токенов)

Используя этот метод расчета и данные модели с открытым исходным кодом, мы можем примерно оценить уровень вычислительной мощности, используемой моделями в настоящее время:

Лама 3 70Б

Он имеет 70 миллиардов параметров и во время обучения использует 15Т токенов обучающих данных, поэтому используемая вычислительная мощность составляет примерно:

6*70Б*15Т= 6.3*10^24 ФЛОПС

Лама 3.1 405Б

Он имеет 405 миллиардов параметров и во время обучения использует 15,6Т токенов обучающих данных, поэтому используемая вычислительная мощность составляет примерно:

6*405Б*15,6Т=3,79*10^25 ФЛОПС


▲Информация о Ламе 3.1 405B (Источник: Hugging Face)

Этот метод расчета является относительно грубым и может сильно отличаться от реальной ситуации, но все же имеет справочное значение. Согласно этому результату,Llama 3.1 405B, король моделей с открытым исходным кодом, в настоящее время не будет указан в качестве модели в рамках законопроекта., модель будет указана как модель, попадающая в диапазон, только если она использует в 2,6 раза больше вычислительной мощности, чем Llama 3.1 405B.

Эти данные также могут быть подтверждены заявлением в открытом письме в ответ на разногласия по поводу законопроекта сенатора штата Калифорния Уильяма Уилсона, автора этого законопроекта. Он написал в письме: «В опубликованной в настоящее время модели,Ни одна модель не достигла порога вычислительной мощности в 10^26 флопов.”。

В будущем подавляющему большинству малых и средних компаний по разработке моделей и независимым разработчикам, возможно, не придется беспокоиться о контроле над этим законопроектом. Согласно порогу вычислительной мощности и порогу капитала законопроекта, его основными объектами регулирования являются такие:OpenAI, Meta, GoogleТакие крупные игроки в области ИИ иВедущие стартапы, получившие большие объемы инвестиций.

Согласно публичному заявлению генерального директора OpenAI Сэма Альтмана, стоимость обучения GPT-4 составляет примерно 100 миллионов долларов США. Неясно, включают ли эти затраты инвестиции, кроме вычислительной мощности. Если будут выпущены GPT-5 или другие последующие модели OpenAI, они могут регулироваться этим законом. Генеральный директор Meta Марк Цукербург подсчитал, что Llama 4 потребует примерно в 10 раз больше вычислительной мощности, чем Llama 3.1, а это означает, чтоLlama 4 должна стать одной из немногих моделей с открытым исходным кодом, которые в будущем будут включены в список моделей модельного ряда.

2. Каковы обязанности предприятий? Разработчикам необходимо проводить «ежегодные проверки», активно предотвращать злоупотребления и оснащать их «выключателями».

Согласно соответствующим положениям этого закона,Разработчик моделей модельного рядаВ основном отвечает за следующие обязанности:

1. Реализацияменеджмент, технологии и физикаТрехсторонняя защита безопасности для предотвращения попадания в область применения моделей и производных от рассматриваемых моделей, контролируемых разработчиками.Несанкционированный доступ, неправильное использование или модификация после обучения.

2、Достичь возможности своевременного полного отключения моделей.

3. Первоначальный законопроект предусматривает, что разработчикам моделей необходимо подписать независимое соглашение о безопасности для обеспеченияМодели и производные, которые имеют риск причинения серьезного вреда (например, кибератаки, повлекшие за собой убытки более 500 миллионов долларов США, повлекшие за собой смерть или тяжкие телесные повреждения и т. д.), не будут разрабатываться.Если в договоре содержится ложная информация, это будет наказываться за дачу ложных показаний.

измененный законопроектЭто значительно ослабляет юридическую эффективность этого соглашения. В настоящее время разработчикам модели необходимо только представить публичные заявления с изложением своих методов обеспечения безопасности.Однако это положение больше не предусматривает никакой уголовной ответственности, и соответствующие лица будут привлекаться к ответственности только после причинения катастрофического ущерба.

4. Если модель и ее производные в рамках объема могут причинить или способствовать причинению серьезного вреда, разработчик не имеет права использовать ее в коммерческих или общественных целях самостоятельно, а также не может предоставлять ее другим лицам для коммерческого или публичного использования.

5. С 1 января 2028 года разработчики моделей, входящих в сферу применения, должныНанимайте 1 стороннего аудитора каждый год, проводить подробную и объективную оценку соблюдения застройщиком требований Закона, сообщать о нарушениях и предложениях по доработке.

6、Пересмотренный законопроект добавляет меры защиты для тонкой настройки модели с открытым исходным кодом.В законопроекте прямо оговаривается, что если разработчики потратят деньги на точную настройку рассматриваемых моделейМенее 10 миллионов долларов США, оно не будет признано разработчиком доработанной модели, и ответственность по-прежнему будет нести разработчик исходной модели.

Кроме того, этот законопроект предусматривает, что облачные сервисы, такие как Amazon Cloud Services (AWS) и Microsoft AzureОбязанности поставщиков облачных услуг. Предоставляя клиентам вычислительную мощность, достаточную для обучения моделей, поставщики облачных услуг должны быть готовы:

1. Получите основную идентификационную информацию клиента и его деловые цели, включаяЛичность клиента, IP-адрес, способ оплаты и источники т. д. Соответствующие операции по обеспечению соблюдения должны оставлять следы, а записи должны храниться в течение 7 лет.

2. Оцените, действительно ли заказчик планирует использовать вычислительные мощности для обучения рассматриваемой модели.

3、Возможность отключения вычислительных ресурсов, используемых пользователями при обучении или эксплуатации моделей.

Разработчики и поставщики облачных услуг рассматриваемых моделей также должны предоставитьПрозрачный, единый и общедоступный прайс-листи убедитесь, что в процессе ценообразования и доступаНикакой дискриминации или антиконкурентного поведения. ноГосударственные организации, академические учреждения и некоммерческие исследователиВы можете пользоваться правами на использование бесплатно или со скидкой. Некоторые поставщики облачных услуг будут использовать ценовые скидки для привлечения или поддержки конкретных компаний, занимающихся разработкой ИИ. Такое поведение не может быть уклончивым после того, как законопроект официально вступит в силу.

Законопроект предусматривает, что когда разработчики узнают, что в модели произошел инцидент безопасности,О соответствующих инцидентах следует сообщать регулирующим органам в течение 72 часов.. Кроме того, разработчики также должны гарантировать, что модель или ее производные используются в коммерческих или общественных целях.В течение 30 дней, подать декларацию о соответствии данной модели. Кроме того, те, кто сообщает о неправомерных действиях«Информаторов» будет защищать закон, компания или организация не имеет права предотвращать или преследовать сотрудников, сообщающих о неправомерном поведении.

3. Как наказывать противоправные действия? Штрафы на сумму от 10 миллионов долларов США могут привести к закрытию или удалению модели.

Если разработчики моделей и операторы вычислительных кластеров не соблюдают вышеуказанные правила и причиняют большой вред, Генеральный прокурор и Комиссия по труду Калифорнии будут иметь право привлечь к ответственности соответствующие организации. Если будет установлено, что имело место противоправное поведение, суд может наложить следующие наказания:

1. За нарушения в 2026 году и позже субъекты, впервые нарушившие закон, будут оштрафованы в пределах 10% от средней стоимости модели в рамках обучения рынка облачных вычислений. При последующих нарушениях сумма штрафа не будет. превысить 30% этой стоимости (на основе расчета порога в 100 миллионов долларов США, определенного в счете для моделей, включенных в объем работ,Штраф за первое нарушение составляет не менее 10 миллионов долларов.)。

2. Суд может также объявить судебный запрет,Включая, помимо прочего, изменение, полное закрытие или удаление всех производных, контролируемых рассматриваемой моделью и ее разработчиками.

Однако штраф за изменение, закрытие и удаление моделей, входящих в область действия, применяется только в том случае, если они вызываютСмерть других лиц, серьёзные телесные повреждения, материальный ущерб или серьёзная угроза общественной безопасности.можно использовать только тогда, когда.

4. Кто выступает против законопроекта? a16z и YC взяли на себя инициативу в начале рекламной кампании, Ли Фейфэй и Ян Ликунь задали вопросы в Твиттере.

Технологические гиганты Кремниевой долины, большое количество стартапов и инвестиционных институтов выразили серьезные сомнения и недовольство калифорнийским законопроектом о безопасности ИИ.Один из самых громких голосов — a16z, известная венчурная компания Кремниевой долины.a16z имеет богатый инвестиционный портфель в области искусственного интеллекта, в который входят ведущие ведущие компании в области искусственного интеллекта, такие как OpenAI и Mistral AI, а также восходящие звезды, такие как World Labs, недавно созданная профессором Стэнфордского университета Ли Фейфеем. Эти компании имеют более крупные масштабы и объемы финансирования,Модели, которые они разрабатывают и дорабатывают, могут быть переданы в сферу регулирования.


▲Некоторые возражения a16z (Источник: Stopsb1047.com)

a16z взял на себя инициативу заплатить за создание веб-сайта и предоставить посетителям шаблон для писем с возражениями, которые можно отправить напрямую, просто отредактировав на веб-сайте. a16z также перечислили на этом сайте «6 грехов» с точки зрения Калифорнийского закона о безопасности ИИ:

1. Этот законопроект окажет сдерживающее воздействие на инвестиции и развитие искусственного интеллекта в Калифорнии.

2. Законопроект наказывает застройщиков/застройщиков за неясные результаты. Соответствующих тестов пока не существует.

3. Расплывчатые определения и строгие юридические обязательства в законопроекте принесли огромную неопределенность и экономические риски для разработчиков ИИ и владельцев бизнеса.

4. Этот законопроект может заставить исследования ИИ уйти в подполье и непреднамеренно снизить безопасность систем ИИ.

5. Этот законопроект создает системное невыгодное положение для разработчиков ПО с открытым исходным кодом и стартапов, которые находятся в центре инноваций и малого бизнеса в Калифорнии.

6. Этот законопроект препятствует исследованиям и инновациям в области искусственного интеллекта в Соединенных Штатах и ​​дает возможность таким странам, как Китай, превзойти Соединенные Штаты в области искусственного интеллекта.

Основатели многих компаний с инвестициями a16z также выразили свое несогласие с Законом Калифорнии о безопасности ИИ. Ли Фейфэй опубликовала на сайте журнала Fortune статью, в которой подробно объяснила причины своего несогласия, полагая, что у этого законопроекта есть четыре основные проблемы:

1. Чрезмерное наказание разработчиков может задушить инновации.

2. «Аварийный выключатель» ограничит работу по разработке открытого исходного кода и уничтожит сообщество открытого исходного кода.

3. Ослабление исследований ИИ в академических кругах и государственном секторе, а также может помешать ученым получать больше финансирования.

4. Он не учитывает потенциальный вред, причиняемый развитием искусственного интеллекта, такой как предвзятость или дипфейки.


▲Ли Фейфей выступает против законопроекта о безопасности ИИ в Калифорнии (Источник: X Platform)

Однако многие пользователи сети в комментариях не поверили этому заявлению. Они призвали Ли Фейфея раскрыть свои интересы с a16z.


▲Некоторые пользователи сети поставили под сомнение нейтралитет Ли Фейфей (Источник: X Platform)

Будучи самым известным и влиятельным инкубатором в США, YC является колыбелью многих стартапов в области искусственного интеллекта.В настоящее время их основное рабочее место находится в Калифорнии.Из 260 стартапов зимней партии 2024 г. более половины связаны с ИИ. YC также считает, что этот законопроект может оказать негативное влияние на индустрию и экосистему разработчиков:

1、Законопроект должен наказывать злоупотребляющих инструментами, а не разработчиков.Разработчикам часто сложно предсказать возможное применение моделей, и за дачу ложных показаний разработчики могут попасть в тюрьму.

2. Нормативные пороги не могут полностью отразить динамику технологического развития. Компании за пределами Калифорнии смогут более свободно разрабатывать технологии искусственного интеллекта, что может повлиять на инновации в Калифорнии.

3. «Аварийный выключатель (имеется в виду способность разработчиков отключать модели)» может запретить разработку ИИ с открытым исходным кодом и препятствовать сотрудничеству и прозрачности открытого исходного кода.

4. Формулировка законопроекта довольно расплывчата.Вероятно, оно будет истолковано судьей по своему усмотрению.

Заявление YC получило совместную поддержку сотен стартапов. YC также провел ряд конференций, посвященных регулированию ИИ в Калифорнии, что позволило обеим сторонам общаться.

Ян ЛеКун, главный научный сотрудник Меты и лауреат премии Тьюринга 2018 года, также выступил против этого законопроекта. Он был особенно обеспокоен этим законопроектом.Оговорки о солидарной и совместной ответственности.Он обеспокоен тем, что платформы с открытым исходным кодом могут быть привлечены к ответственности, если они не смогут точно оценить риски рассматриваемых моделей.


Будучи сегодня самым важным игроком в области моделей искусственного интеллекта с открытым исходным кодом, корпорация Meta Corporation написала в письме против, что этот законопроект вынуждает разработчиков открытого исходного кода нести большие юридические риски, когда исходный код открыт, поскольку требования по обеспечению безопасности модели нереалистичны. . Они рекомендуют законодателям Калифорнии обратиться к соответствующим законам других стран и регионов.Например, требования прозрачности и «красной команды тестирования» в Законе ЕС об искусственном интеллекте.. Microsoft, Google и OpenAI также негативно прокомментировали законопроект.

Anthropic, AI-стартап с уникальной структурой «B Corporation», является одним из многих голосов, выступающих против этого законопроекта. Однако, в отличие от других компаний, они не пытаются помешать принятию законопроекта, а участвуют в его внесении. , дав Законодательному органу написать письмо с подробным описанием своих предложений по улучшениям. В целом, Anthropic считает, чтоЗаконопроект должен перейти от «исполнения требований до причинения вреда» к «сдерживанию, основанному на результатах».. Они также хотят, чтобы правила были более строгими, фокусировались на передовой безопасности ИИ и избегали дублирования федеральных требований.

5. Кто поддерживает законопроект? Хинтон Бенджио пишет письмо поддержки, сенатор обвиняет a16z в распространении слухов

Хотя Калифорнийский законопроект о безопасности искусственного интеллекта вызвал споры сразу после его внесения, многие ученые и представители отрасли поддерживают такое регулирование. 7 августа, когда этот законопроект в очередной раз подвергся волне критики, лауреат премии Тьюринга и «Крестный отец искусственного интеллекта»Джеффри Хинтон(Джеффри Хинтон), известный ученый в области искусственного интеллекта, лауреат премии ТьюрингаДжошуа Бенджио(Йошуа Бенджио), эксперт по праву в киберпространстве, профессор Гарвардской школы праваЛоуренс Лессиг(Лоуренс Лессиг), автор популярного учебника по искусственному интеллекту «Искусственный интеллект: современный подход» и профессор Калифорнийского университета в Беркли.Стюарт Рассел(Стюарт Рассел) совместно написали в Законодательное собрание Калифорнии письмо, в котором выразили «решительную поддержку» Калифорнийскому закону о безопасности ИИ.


▲Четыре известных учёных написали письмо в поддержку Закона Калифорнии о безопасности ИИ (Источник: Safesecureai)

Четверо ученых заявили, что они глубоко обеспокоены рисками, связанными с ИИ, и что Калифорнийский Закон о безопасности ИИ является минимальным требованием для эффективного регулирования этой технологии, написали они:

Законопроект не предусматривает системы лицензирования и не требует от компаний получения разрешения от государственных органов перед обучением или внедрением моделей. Он основан на самооценке риска компанией и не требует от компаний строгой ответственности даже в случае стихийного бедствия.

Что касается рисков, с которыми мы сталкиваемся,Это очень мягкое законодательство. Действующие законы, регулирующие ИИ, не такие строгие, как законы, регулирующие магазины сэндвичей, и отмена этой фундаментальной меры была быисторическая ошибка—— Год спустя, когда будет выпущено следующее поколение более мощных систем искусственного интеллекта, эта ошибка станет еще более очевидной.

Они также подчеркнули, чтоЯвляются ли эти риски необоснованными или реальными,, все соответствующие стороны должны нести ответственность за снижение рисков. «Как группа экспертов, которые лучше всех знают эти системы», они считают, что эти риски возможны и достаточно значительны, что нам необходимо их устранить.Тестирование безопасности и меры предосторожности, основанные на здравом смысле

Четыре эксперта также упомянули недавний скандал с безопасностью компании Boeing. Они считают, что авиация, медицина и другие сложные технологии стали очень безопасными и надежными, что является результатом совместных усилий отрасли и государства.Когда регуляторы смягчают правила и допускают саморегулирование, возникают такие проблемы, как Боинг, которые крайне пугают общественность и отрасль.

Это письмо поддержки поддержали многие пользователи сети, но некоторые считали, что Хинтон и Бенджио больше не участвуют в работе на передовой.Поэтому они не имеют права голоса в соответствующих вопросах.

Несколько бывших сотрудников OpenAI также поддержали законопроект, в том числе Дэниел Кокотайло, который добровольно отказался от своих возможностей OpenAI в обмен на право свободно критиковать компанию. Он полагает, что утверждения критиков законопроекта о том, что прогресс ИИ застопорится, скорее всего, не оправдаются.


▲Соответствующие замечания Кокотайоло (Источник: X Platform)

Саймон Ласт, основатель Notion, единорога в области инструментов повышения производительности искусственного интеллекта, стоимость которого оценивается в десятки миллиардов долларов,ПромышленностьНесколько сторонников законопроекта о безопасности ИИ в Калифорнии. Он написал статью в Los Angeles Times, одном из самых влиятельных местных СМИ в Калифорнии, в поддержку законопроекта, заявив, что, когда законы об искусственном интеллекте федерального уровня трудно реализовать,Будучи технологическим центром в США и даже во всем мире, Калифорния несет важную ответственность.. Он считает, что надзор за моделями не только повышает их безопасность, но и способствует созданию стартапов в области искусственного интеллекта, которые создают продукты на основе базовых моделей.Это снизит нагрузку на малый и средний бизнес.

Кроме того, он также считает, что неправильно подчеркивать, что «регулирование должно быть сосредоточено на вредном использовании ИИ и ненадлежащем поведении пользователей, а не на базовой технологии». Поскольку первое было классифицировано как незаконное в законах всех уровней, новый законопроект Калифорнии обеспечивает цельНедостающие аспекты предыдущего регулирования: Предотвратить потенциальный вред.

После того как YC и a16z начали рекламную кампанию, сенатор штата Калифорния Вэй Шангао, ведущий автор Калифорнийского закона о безопасности искусственного интеллекта, опубликовал длинное письмо в ответ на соответствующие жалобы, заявив, что многие из заявлений, сделанных этими двумя организациями о Калифорнийском законе о безопасности ИИ, Закон о безопасности искусственного интеллекта был неточным, и некоторые утверждения представляют собой «провокационное искажение фактов», например, законопроект отправит разработчиков, которые не смогут точно оценить риски моделей, в тюрьму или запретит выпуски с открытым исходным кодом.


▲ Ответ Вэй Шангао YC и a16z (Источник: Safesecureai)

В начале 2023 года Вэй Шангао начал обращаться в YC, но сообщил, что до сих пор не получил от YC подробного ответа о том, как улучшить законопроект. a16z поздно участвовал в законодательном процессе и до сих пор не предложил никаких существенных поправок.

В этом письме Вэй Шангао ответил на несколько основных опасений противников законопроекта:

1、Разработчики не попадут в тюрьму за неспособность предсказать риски модели.Во-первых, разработчикам стартапов и ученым не стоит беспокоиться, поскольку на них законопроект не распространяется. Во-вторых, пункт о лжесвидетельстве в законопроекте касается только застройщиков."умышленно"Он вступает в силу только в том случае, если сделано ложное заявление, а непреднамеренные ошибочные суждения о возможностях модели не приводят к срабатыванию статьи о лжесвидетельстве (которая была удалена из сегодняшних поправок).

2、Законопроект не создает совершенно новых обязанностей.Согласно существующему закону, как разработчики моделей, так и отдельные разработчики могут быть привлечены к ответственности, если модель причиняет вред, и это относится к моделям всех способностей, и все пострадавшие могут подать в суд. Новый законопроект Калифорнии не толькоОграничивает сферу надзора, а также ограничивает право на предъявление искаГенеральный прокурор Калифорнииитрудовой советна обоих объектах.

3、Законопроект не задушит инновации в Калифорнии.Этот законопроект распространяется на все компании, ведущие бизнес в Калифорнии. Даже если они перенесут свою штаб-квартиру из Калифорнии, они должны соблюдать соответствующие правила (Примечание Чжиси: Калифорния является пятой по величине экономикой в ​​мире по ВВП и имеет полную технологическую экосистему. Технологии). компании Трудно отделиться от Калифорнии). Когда Калифорния приняла законы о конфиденциальности данных и законы об охране окружающей среды, многие люди утверждали, что это будет препятствовать инновациям, но факт остается фактом: Калифорния по-прежнему лидирует в инновациях.

4、Аварийные переключатели и требования к оценке безопасности не будут препятствовать развитию ИИ с открытым исходным кодом.В настоящее время законопроект был пересмотрен и усилил защиту ИИ с открытым исходным кодом. Требование об аварийном отключении модели в законопроекте применяется только к моделям, находящимся под контролем разработчика, за исключением неконтролируемых моделей с открытым исходным кодом. Законопроект также создает новый консультативный комитет для защиты и поддержки безопасных и надежных усилий по разработке искусственного интеллекта с открытым исходным кодом.

Вэй Шангао также предоставил «ленивый пакет» для людей, обеспокоенных этим законопроектом, резюмируя 6 ключевых пунктов законопроекта (см. рисунок ниже).
▲Основные положения законопроекта (Источник: Safesecureai)

Вывод: Калифорния сделала важный шаг, и будущее законопроекта неясно

Хотя против законопроекта о безопасности искусственного интеллекта в Калифорнии выступает большое количество инсайдеров отрасли, результаты некоторых опросов показывают, что жители Калифорнии в целом положительно относятся к этому законопроекту.

Когда он официально добьется успеха, он может столкнуться с проблемами в суде со стороны решительных оппонентов, таких как a16z. Это приостановит рассмотрение законопроекта до принятия решения Верховным судом США.

Недавно Верховный суд США отменил «доктрину Chevron», действовавшую почти 40 лет, и поддержал мнение регулирующих органов. Этот принцип требует, чтобы судьи полагались на интерпретацию правовых положений государственными регулирующими органами, когда правовые положения неясны. Отмена этого принципа отражает общее консервативное отношение нынешнего Верховного суда США к регулированию технологий.