новости

openai избежал смерти? законопроект об искусственном интеллекте в калифорнии только что был принят, лекун, ли фейфей и нг энда в восторге.

2024-09-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

редактор: редакционный отдел хиз

[введение в новую мудрость]приятного праздника! только что губернатор калифорнии объявил, что наложит вето на законопроект об ограничении использования искусственного интеллекта в калифорнии. лекунь, ли фейфэй и нг энда бросились взволнованно рассказывать друг другу и праздновали это лбами и руками. бенджио и хинтон, которые решительно поддерживают законопроект, хранят молчание. openai, google и meta избежали катастрофы.

тяжелый!

сегодня рано утром губернатор калифорнии гэвин ньюсом официально объявил, что наложит вето на законопроект sb-1047!

для разработчиков по всему миру отмена законопроекта sb-1047 означает, что модели с открытым исходным кодом крупных производителей, таких как meta и google, снова будут доступны.

можно сказать, что это решение было широко ожидаемым. громкие имена в кругу ии с волнением бросились рассказывать друг другу, и особенно были счастливы нг энда, лекунь и ли фейфэй, сыгравшие сильную роль в противостоянии.

что означает вето губернатора калифорнии?

законопроект sb-1047 действительно положил этому конец.

«печально известный» sb-1047 предусматривает, что sb 1047 будет препятствовать тому, чтобы системы искусственного интеллекта вызывали массовые жертвы или вызывали инциденты кибербезопасности, стоимость которых превышает 500 миллионов долларов, путем привлечения разработчиков к ответственности.

как только эта новость стала известна, она вызвала огромную оппозицию со стороны научных кругов и промышленности.

знаете, 32 из 50 крупнейших в мире компаний, занимающихся разработкой искусственного интеллекта, базируются в калифорнии, и они играют ключевую роль в определении будущего искусственного интеллекта.

согласно пресс-релизу калифорнийского офиса, за последний месяц гэвин подписал 18 законопроектов о genai, но наложил вето только на sb-1047.

за последние 30 дней губернатор подписал ряд законопроектов по борьбе с дипфейковым контентом, защите прав исполнителей на цифровые изображения и т. д.

этот законопроект имеет благие намерения, но на практике у него есть серьезные проблемы.

«я не думаю, что это лучший способ защитить общественность от реальных угроз, исходящих от ии», — сказал он.

sb-1047 не учитывает, развернута ли система ии в среде высокого риска, требует принятия критических решений или использует конфиденциальные данные. вместо этого законопроект применяет строгие стандарты к самой базовой функции развертывания больших модельных систем.

в процессе отклонения sb-1047 нельзя игнорировать роль крестной матери ии ли фейфэй.

профессор стэнфордского университета ли фейфей с радостью сказала, что для нее большая честь работать со stanfordhai, чтобы проложить путь к ответственному управлению ии в калифорнии.

гуру ии эндрю нг также поблагодарил ли фейфей за ее публичное противодействие sb-1047, заявив, что ее усилия могут способствовать более рациональной политике ии для защиты исследований и инноваций.

всего несколько дней назад, когда законопроект sb-1047 должен был быть окончательно доработан, нг и лекун все еще с тревогой призывали к голосованию и проводили голосование, опасаясь, что после его принятия ии с открытым исходным кодом и вся экосистема ии окажут сдерживающее воздействие.

сегодня компании, занимающиеся искусственным интеллектом по всей калифорнии, наконец-то вздохнули с облегчением.

письмо губернатора о вето: не подписано

«настоящим я возвращаю сенатскому законопроекту № 1047 без моей подписи».

в письме губернатор признал, что sb-1047 преувеличивает угрозу, которую может представлять развертывание ии.

более того, сосредоточив внимание только на самых дорогих и масштабных моделях, законопроект фактически дает общественности «ложное чувство безопасности».

он отметил, что даже меньшие патентованные модели могут быть не менее опасными.

короче говоря, регулирование ии в законопроекте происходит за счет «ограничения инноваций, которые приносят пользу общественным интересам».

губернатор заявил, что применение законопроектом самых строгих стандартов к самым базовым функциям — не лучший способ защитить общественность от угроз со стороны технологий искусственного интеллекта.

лучшим решением является план, не основанный на анализе эмпирических траекторий развития систем и возможностей ии.

босс ии это ненавидит

такую концовку можно охарактеризовать как очень удовлетворительную для большинства людей, за исключением бенджио и хинтона.

когда дело доходит до sb-1047, многие большие парни его ненавидят.

вся история такова.

в прошлом году губернатор калифорнии подписал указ, в котором подчеркивается, что калифорния должна быть более осмотрительной в своем отношении к гении и сделать ии более этичным, прозрачным и заслуживающим доверия.

в феврале этого года калифорния разработала законопроект под названием «закон об инновациях в области безопасности больших моделей sb-1047 frontier ai», который предусматривает более конкретные правила безопасного и прозрачного использования больших моделей.

однако в нем много необоснованного содержания, которое просто душит отдельные компании по названию.

необходимо не допустить, чтобы модели стоимостью более 100 миллионов наносили «значительный вред»

например, существует постановление, которое предусматривает, что если большая модель, затраты на разработку и обучение которой превышают 100 миллионов долларов сша и число операций с плавающей запятой превышает 10^26 раз, используется кем-то для совершения незаконных действий после того, как ее исходный код открыт, разработчик модели также будет строго наказан.

вы должны знать, что модель llama 3 от meta, модель gemma от google и т. д. соответствуют этому условию.

данное положение, очевидно, является крайне спорным.

например, если кто-то взломает систему автономного вождения и станет причиной аварии, будет ли привлечена к ответственности компания, разработавшая эту систему?

согласно законопроекту, разработчики обязаны оценивать производные своих моделей и предотвращать любой вред, который они могут причинить, в том числе в случае, если клиенты проводят тонкую настройку моделей, иным образом модифицируют модели (побег из тюрьмы) или объединяют их с другим программным обеспечением.

однако после выпуска программного обеспечения с открытым исходным кодом люди смогут загрузить модель непосредственно на свои личные устройства, поэтому у разработчиков не будет возможности узнать о конкретных операциях других разработчиков или клиентов.

кроме того, в законопроекте много расплывчатых определений.

например, «серьезные повреждения» модели ии описываются как массовые жертвы, убытки, превышающие 500 миллионов долларов, или другие «столь же серьезные» травмы. но при каких условиях разработчики будут привлечены к ответственности? какие обязанности существуют?

в законопроекте об этом ничего не говорится.

более того, законопроект распространяется на модели искусственного интеллекта, которые потратили более 100 миллионов долларов на обучение, или на разработчиков, которые потратили более 10 миллионов долларов на доработку существующих моделей, в результате чего многие небольшие технологические компании остаются в зоне действия атаки.

sb-1047 также содержит некоторые необоснованные положения. например, если компания открывает свою модель для использования в других странах, она должна предоставить всю информацию о клиенте, включая удостоверение личности клиента, номер кредитной карты, номер счета и т. д.

разработчики также должны создать процедуры тестирования, учитывающие риски модели ии, и ежегодно нанимать сторонних аудиторов для оценки своих методов обеспечения безопасности ии.

для продуктов ии, созданных на основе моделей, необходимо разработать соответствующие протоколы безопасности для предотвращения злоупотреблений, включая кнопку «аварийной остановки», которая отключает всю модель ии.

законопроект раскритиковали за то, что он закрывает глаза на реальные риски

остальные критики считают, что этот законопроект слишком необоснован.

это не только помешает инновациям в области ии, но и не поможет безопасности сегодняшнего ии.

еще более иронично то, что законопроект использует так называемый «аварийный выключатель» для предотвращения конца света, но закрывает глаза на существующие угрозы безопасности, такие как deepfakes и ложная информация.

хотя более поздние поправки были сформулированы более свободно, что ограничило полномочия правительства калифорнии по привлечению к ответственности лабораторий искусственного интеллекта.

но даже в этом случае sb-1047 окажет значительное влияние на таких крупных производителей, как openai, meta и google.

для некоторых стартапов этот удар может оказаться даже разрушительным.

теперь, когда пыль улеглась, как крупные компании, так и небольшие стартапы могут вздохнуть с облегчением.

гигант тьюринга распался

sb-1047 даже стал причиной «раскола» большой тройки тьюринга из-за этого.

крупные боссы в лице лекуна, ли фейфея и нг энда много раз публично выступали против и выражали недовольство.

лекун даже скопировал исходное сообщение, которое он использовал, когда просил ввести мораторий на исследования в области ии: пожалуйста, приостановите действие законодательства в области ии на шесть месяцев!

двое других членов «большой тройки» тьюринга, йошуа бенджио и джеффри хинтон, на удивление решительно поддержали принятие этого законопроекта.

мне даже кажется, что нынешние условия слишком свободны.

как старшие исследователи технологий и политики искусственного интеллекта, мы пишем, чтобы выразить нашу решительную поддержку законопроекта сената калифорнии № 1047.

sb 1047 излагает основные требования для эффективного регулирования этой технологии. он не внедряет систему лицензирования, не требует от компаний получения разрешения от государственных органов перед обучением или внедрением моделей, полагается на то, что компании самостоятельно оценивают риски, и не требует от компаний строгой ответственности даже в случае стихийного бедствия.

это относительно мягкое законодательство по сравнению с масштабом рисков, с которыми мы сталкиваемся.

отмена основных мер законопроекта была бы исторической ошибкой, которая станет еще более очевидной через год, когда будет выпущено следующее поколение более мощных систем искусственного интеллекта.

но бенджио и хинтон явно не являются мейнстримом.

вкратце, позиции различных технологических гигантов и крупных шишек таковы.