Моя контактная информация
Почта[email protected]
2024-08-13
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
“
ЕС надеется использовать искусственный интеллект, чтобы взять на себя инициативу в законодательстве и руководить глобальными правилами. Однако он вызвал широкую критику за быстрое введение строгих мер регулирования на начальном этапе промышленного развития. Фактический процесс реализации и эффект от реализации закона сохраняются. чтобы быть увиденным.
Количество слов в этой статье 6256, а время чтения около 18.минута
Текст |Финансовое электронное право Фань Шуо
Редактировать |Го Лицинь
ЕС вновь лидирует в мире по скорости законодательства, на этот раз в сфере искусственного интеллекта, которая продолжает оставаться горячей. Однако до сих пор неясно, как в конечном итоге будут реализованы эти расплывчатые условия.
В августе официально вступил в силу первый в мире закон, всесторонне регулирующий искусственный интеллект, — Европейский закон об искусственном интеллекте (далее — «Закон об искусственном интеллекте»).
Наибольшее внимание привлекло то, что положения Закона об искусственном интеллекте будут реализовываться поэтапно. 1 августа — дата вступления этого закона в силу, однако действуют лишь некоторые его положения. Согласно графику, запрещенные действия в законопроекте будут применяться через шесть месяцев после вступления в силу; соответствующие обязательства и правила в отношении общего искусственного интеллекта будут применяться в течение 12 месяцев с 1 августа. Через 24 месяца законопроект будет применяться полностью, но некоторые правила; для систем искусственного интеллекта высокого риска начнут применяться через 36 месяцев.
Этот набор всеобъемлющих правил регулирования ИИ, известный как «самый строгий» в истории, включает в себя все субъекты отраслевой цепочки ИИ, находящиеся в сфере надзора, включая поставщиков систем ИИ, пользователей, импортеров и дистрибьюторов, которые имеют связи с Рынок ЕС, торговцы и производители продукции и т. д.
«Закон об искусственном интеллекте» также расширил инструменты регулирования: он не только ввел риск-ориентированную иерархическую модель управления, но и создал «регулятивную песочницу», чтобы снизить нагрузку на малые и средние предприятия и стартапы. Острые «зубы» тоже привлекли внимание:В случае нарушения соответствующих положений компании могут быть оштрафованы на сумму до 35 миллионов евро (приблизительно 270 миллионов юаней) или 7% от мировых годовых продаж за предыдущий финансовый год (в зависимости от того, что больше).
С самого начала разработки Закона об ИИ ЕС надеялся использовать его для установления правил в области ИИ.
«Закон об искусственном интеллекте» был объявлен главой ЕС по вопросам цифровых технологий Маргарет Вестагер в апреле 2021 года. Тогда она сказала: «ЕС берет на себя ведущую роль в разработке новых глобальных норм, чтобы гарантировать, что искусственный интеллект заслуживает доверия ЕС Тьерри Бретон». Комиссар Комиссии по внутреннему рынку также заявил в социальных сетях, что закон «будет важным руководством, которое поможет стартапам и исследователям ЕС возглавить глобальную конкуренцию в области искусственного интеллекта».
Однако быстрое введение Закона об искусственном интеллекте, когда развитие индустрии искусственного интеллекта еще находилось в зачаточном состоянии, также вызвало широкую критику.Оппоненты утверждают, что поспешные попытки регулировать базовые модели ограничат использование самой технологии.
Сюй Сюй, директор Исследовательского центра цифровой экономики и правовых инноваций Университета международного бизнеса и экономики, считает, что положения о постепенной реализации «Закона об искусственном интеллекте» должны дать компаниям ЕС достаточный буферный период, из которого стоит извлечь уроки. соответствующее законодательство.
Изучив положения, Чжан Линхань, профессор Института права данных Китайского университета политических наук и права и китайский член Консультативного органа высокого уровня ООН по искусственному интеллекту, сказал, что, хотя «Закон об искусственном интеллекте» Как известно, все правила ЕС, ограниченные в применении мер регулирования и инновационных инструментов регулирования, предоставляют компаниям, занимающимся искусственным интеллектом, необходимое пространство для гибкого развития.Это также увеличивает затраты на соблюдение требований для предприятий, не входящих в ЕС.
Нин Сюаньфэн, руководитель отдела соблюдения требований King & Wood Mallesons, считает, что фактические последствия и влияние «Закона об искусственном интеллекте» необходимо наблюдать после того, как все его положения вступят в силу, в сочетании с результатами развития и регулирования отрасли искусственного интеллекта. время. Для китайских законодателей это означает, что в системах искусственного интеллекта высокого риска участвуют несколько соответствующих организаций на протяжении всего процесса их использования. Закон об искусственном интеллекте устанавливает требования соответствия, основанные на степени участия соответствующих организаций, и устраняет нарушения со стороны соответствующих организаций. юридическим лицам были установлены штрафные санкции. По мнению Нин Сюаньфэна, нынешние «Временные меры по управлению услугами генеративного искусственного интеллекта» в Китае в основном сосредоточены на поставщиках услуг как на отправной точке управления. Если Китай в будущем узаконит ИИ, он может рассмотреть возможность создания механизма ответственности, охватывающего все стороны в цепочке создания стоимости системы ИИ, что будет более полезно в разграничении границ ответственности каждой стороны, тем самым стимулируя исследования и разработки или мотивацию обслуживания.
01
Просвещение из законодательства ЕС
В ходе законодательного процесса ЕС провел подробные обсуждения, охватывающие интересы всех сторон. Это содержание, а также направленность и мышление всего законодательства также принесли ценные ссылки на другие страны или регионы.
Быстрое законодательство ЕС подверглось критике на международном уровне.
По сообщениям СМИ, законодатели ЕС в декабре 2023 года провели марафонские переговоры, чтобы добиться принятия правил. Но критики говорят, что правила не заходят достаточно далеко, поскольку регулирующие органы упускают важные детали, которые отчаянно нужны бизнесу для обеспечения соблюдения закона. Некоторые специалисты полагают, чтоЕС необходимо от 60 до 70 подзаконных актов для поддержки реализации Закона об искусственном интеллекте.
Кай Зена, помощник Европарламента, принимавший участие в разработке закона об искусственном интеллекте, признал:«Закон довольно расплывчатый. Нехватка времени оставляет многие вопросы под вопросом. Регулирующие органы не могут прийти к согласию по этим вещам, поэтому легче прийти к компромиссу».
Сюй сказал, что самая большая критика Закона об искусственном интеллекте заключается в том, что он основан на подходе, основанном на риске, и не обеспечивает расширения прав и возможностей отдельных лиц. Кроме того, будущая реализация Закона об искусственном интеллекте также должна будет столкнуться с большим количеством проблем координации с другими законами и постановлениями. Например, координация с такими правовыми нормами, как Общий регламент по защите данных (GDPR), Закон о цифровых рынках (DMA) и Закон об управлении данными (DGA), вызовет много проблем. Кроме того, как общий закон, Закон об искусственном интеллекте должен учитывать вопросы реализации в нескольких областях, включая финансы, медицинское обслуживание, транспорт и другие области.
«На самом деле это может вызвать больше проблем, чем решить», — сказал Сюй.
Несмотря на критику, законодательные идеи «Закона об искусственном интеллекте» получили подтверждение, главным образом потому, что он учитывает общий процесс развития отрасли.
Чжан Линхань отметил:Хотя он известен как самый строгий закон, регулирующий ИИ в истории, меры регулирования «Закона об ИИ» на самом деле ограничены, и в процессе его разработки считалось, что он также способствует общему развитию индустрии ИИ в ЕС.
Конкретно,Чжан Линхань считает, что во-первых,Закон об искусственном интеллекте предусматривает исключения для разработки и использования некоторых систем искусственного интеллекта.Включает системы, разработанные специально для военных, оборонных целей или целей национальной безопасности, системы, разработанные специально для научных исследований, а также бесплатные системы искусственного интеллекта с открытым исходным кодом.
Во-вторых, Закон об искусственном интеллекте предлагает ряд мер поддержки.Уменьшить административную и финансовую нагрузку на предприятия ЕС, особенно малые и средние предприятия.
В-третьих, поэтапный график соблюдения «Закона об искусственном интеллекте» и созданная им нормативная «песочница» соответственноЭто предоставляет определенное время и пространство для развития индустрии искусственного интеллекта в ЕС.
В-четвертых, экстерриториальный эффект Закона об искусственном интеллекте будетУвеличение затрат на соблюдение требований для предприятий, не входящих в ЕС, что ограничит готовность компаний, не входящих в ЕС, расширять европейский рынок, что может в определенной степени снизить конкурентное давление на компании ЕС.
Сюй считает, что поэтапное внедрение Закона об искусственном интеллекте может быть обусловлено двумя причинами. С одной стороны, искусственный интеллект — это быстро развивающаяся область регулирования. Все еще существует большая неопределенность в том, как реагировать на изменения в технологиях и промышленности после вступления закона в силу. Поэтому необходимо выделить определенное время для этого. промышленность, чтобы позволить компаниям пересматривать свои собственные технические маршруты и бизнес-модели. Корректировка, с другой стороны, «Закон об искусственном интеллекте» является правилом совместного управления. Чтобы законы были переведены на технический язык и отраслевые стандарты, необходимо сотрудничать с регулирующими органами и предприятиями, что также требует выделения времени для информирования о рисках, коммуникации и координации между предприятиями и регулирующими органами.
По словам У Шэнькуо, преподавателя юридического факультета Пекинского педагогического университета и заместителя директора Исследовательского центра Китайского интернет-сообщества, «Закон об искусственном интеллекте» устанавливает требования к системе регулирования с прозрачностью и справедливостью в качестве основной логики исследований, разработок и промышленного применения технологий. искусственный интеллект. Это окажет долгосрочное влияние на направление исследований и разработок и рыночное применение ИИ, а также изменит структуру рынка Европы.
Итак, какие последствия два ключевых инструмента регулирования, разработанные в Законе об искусственном интеллекте, принесут законодателям в других странах?
Общая нормативная структура «Закона об искусственном интеллекте» вращается вокруг четырех категорий уровней риска от высокого до низкого для приложений искусственного интеллекта, аналогичных «пирамиде рисков», с установленными соответствующими механизмами предотвращения рисков.
По потенциальному воздействию искусственного интеллекта на пользователей и общество он делится на четыре уровня:Неприемлемая категория риска, категория высокого риска, категория ограниченного риска, категория минимального риска.
На самом крайнем уровне, системы или приложения искусственного интеллекта, которые создают неприемлемые риски, например те, которые считаются явной угрозой безопасности людей, их повседневной жизни и основным правам, будут полностью запрещены к использованию.Разработчики таких систем искусственного интеллекта будут оштрафованы на сумму до 6% мирового оборота в предыдущем финансовом году.(Подробнее см.:Прорывы в законодательстве по искусственному интеллекту в Китае и Европе за тот же период: поставили «светофор» для ChatGPT?)
Четыре уровня риска искусственного интеллекта, источник: официальный сайт Европейской комиссии.
Для систем искусственного интеллекта с высоким уровнем риска «Закон об искусственном интеллекте» предусматривает систему полного процесса управления рисками, охватывающую предварительный и пострыночный выход. Перед выходом на рынок компаниям необходимо создать и поддерживать систему управления рисками, осуществлять управление данными, разрабатывать и обновлять техническую документацию, предоставлять всю необходимую информацию контролирующим органам и т. д.
У Шэнькуо сообщил, что в качестве базовой методологии классификация и классификация рисков будут в разной степени отражены в законодательстве разных стран и регионов. Его важное значение и институциональная ценность заключаются в обеспечении пропорциональности надзора: одновременно отвечая основным нормативным проблемам и стратегическим требованиям, он также обеспечивает необходимое гибкое пространство для развития ИИ.
В Китае система классификации и оценок, ориентированная на риск, также отражена в регулировании алгоритмов и генеративного искусственного интеллекта. В сентябре 2021 года Администрация киберпространства Китая опубликовала «Руководящие заключения по усилению комплексного управления алгоритмами информационных служб Интернета», в которых четко предлагалось продвигать иерархическое и классифицированное управление безопасностью алгоритмов, эффективно выявлять алгоритмы с высоким уровнем риска и внедрять точные управление.В июле 2023 года «Временные меры по управлению службами генеративного искусственного интеллекта», изданные Администрацией киберпространства Китая и другими ведомствами, также предлагалось осуществлять инклюзивный, осмотрительный, классифицированный и иерархический надзор за услугами генеративного искусственного интеллекта.
Нин Сюаньфэн считает, что стратегия классификации рисков основана на реалистичных нормативных потребностях технологии ИИ без полного понимания социальных рисков, которые могут быть вызваны технологией ИИ.Прогрессивная стратегия регулирования.
Лицензирование полагает, что классификация и классификация означают, что регулирующие органы должны распределять регулятивные ресурсы в определенной пропорции. В будущем искусственный интеллект будет внедрен в тысячи отраслей, таких как программное обеспечение Office, поэтомуИерархическая классификация по-прежнему должна оставаться одной из основных идей надзора за ИИ.Однако от нынешней классификации и классификации на основе рисков следует отказаться, поскольку они рассматривают только статические риски ИИ, но не динамические преимущества. Например, системы искусственного интеллекта с высоким уровнем риска часто означают высокую прибыль.
Иерархическая классификация в «Законе об искусственном интеллекте» отличается от существующей в Китае логики иерархической классификации. Введение в лицензирование, классификация на английском языке состоит из одного слова – классификация. Но в Китае классификация и градация — это два понятия: «классификация» и «градация». Более особенным является то, что с появлением общего искусственного интеллекта, возможно, потребуется скорректировать классический метод классификации сценариев применения ИИ, использовавшийся в предыдущей политике Китая. Например, «Правила управления рекомендациями алгоритмов информационных услуг Интернета» регулируют пять основных категорий «технологий рекомендаций алгоритмов приложений», включая такие информационные услуги, как генерация и синтез, персонализированная рассылка, сортировка и выбор, извлечение и фильтрация, а также планирование и принятие решений. изготовление.Однако генеративный ИИ больше не может следовать этой идее, и большие модели можно применять во всех областях.
Введение в лицензирование,В случае корректировки классификации регулирующие органы по-прежнему могут осуществлять иерархическое управление искусственным интеллектом. Китай принимает классификацию, основанную на степени воздействия ИИ.Например, «Временные меры по управлению службами генеративного искусственного интеллекта».Генеративные услуги искусственного интеллекта, которые обеспечивают атрибуты общественного мнения или возможности социальной мобилизации, классифицируются и классифицируются.Поставщики услуг этого типа выдвинули требования к регистрации алгоритмов и регистрации больших моделей. Логика в том, что некоторые системы ИИ оказывают существенное влияние на страну и общественный порядок, поэтому регулирующие органы будут принимать различные меры регулирования. Однако Сюй Сюй считает, что это не означает, что китайское законодательство в области ИИ сохранит те же меры регулирования в будущем, но можно предвидеть, чтоРегулирующие органы будут использовать различные факторы для определения воздействия систем ИИ и принятия соответствующих мер регулирования.
Чжан Линхань также сказал:Поскольку генеративный искусственный интеллект становится более универсальным, китайскую систему классификации необходимо корректировать по мере развития технологий.
Продолжая предыдущий проект, «Закон об искусственном интеллекте» вводит систему «регулятивной песочницы», обычную для надзора за финансовыми технологиями.
Так называемая «регуляторная песочница» призвана создать контролируемое и контролируемое безопасное пространство, позволяющее предприятиям, особенно малым и средним предприятиям и стартапам, войти в «песочницу» и активно участвовать в разработке и развитии инновационного ИИ. системы под строгим контролем регулирующих органов. Тестируйте, а затем выводите эти системы ИИ на рынок услуг. Если в ходе разработки и тестирования обнаруживаются серьезные риски, их следует немедленно снизить. Если риски невозможно смягчить или контролировать, открытое тестирование следует приостановить.
«Регуляторная песочница» была впервые создана Британским управлением финансового надзора (FCA) в 2015 году. По словам Ли, система «регулятивной песочницы» — это инициатива ЕС по поддержке инноваций, направленная на достижение технологических инноваций при контролируемых рисках. «Регуляторная песочница» может создать контролируемую среду, принять конкретные меры регулирования для некоторых приложений ИИ и дать потенциально опасному ИИ пространство для проб и ошибок.
У Шэнькуо также сказал, что «нормативная песочница» является одной из особенностей «Закона об искусственном интеллекте». Перед лицом новых технологий и приложений, таких как искусственный интеллект, они могут помочь или способствовать продолжению диалога между регулирующими органами ЕС и регулируемыми лицами.для решения динамического баланса между технологическими разработками и нормативными проблемами.
В настоящее время несколько стран-членов ЕС тестируют систему «регулятивной песочницы» в сфере ИИ.
Франция начнет пилотировать систему «регулятивной песочницы» в 2022 году, сосредоточив внимание наОбразовательная индустрияВ настоящее время в пилотном проекте участвуют 5 компаний.
В мае 2024 года Испания запросила мнение по поводу внедрения «нормативной песочницы». Испания чистаК системе «нормативной песочницы» применимы системы искусственного интеллекта высокого риска, общий искусственный интеллект и базовые модели в восьми областях, включая биометрию, критическую инфраструктуру, а также образование и обучение.Он также содержит более подробные правила доступа к проекту, подачи документов, управления рисками и условий выхода.
Подобные пилотные проекты также есть в Норвегии и Швейцарии. Например, норвежский поставщик общественного транспорта Ruter провел оценку рисков своего алгоритма искусственного интеллекта для онлайн-рекомендаций для поездок, основанного на «нормативной песочнице». Пять пилотных компаний в Швейцарии соответственно занимаютсяБеспилотная сельскохозяйственная техника, дроны, машинный перевод, коррекция ошибок в работе, планирование парковок и т. д.исследования и разработки в этой области.
В Китае система «регулятивной песочницы» также применяется при надзоре за финансовыми технологиями. 31 января 2019 года в «Ответе на комплексный пилотный план работы по всестороннему содействию расширению и открытию индустрии услуг Пекина» Госсовет согласился, что Пекину следует изучить механизм «регулятивной песочницы» на основе правовых норм. согласие. 5 декабря 2019 года Народный банк Китая одобрил поддержку Пекина, который возьмет на себя инициативу по запуску общенационального пилотного проекта по надзору за инновациями в сфере финансовых технологий и изучению китайской версии «регулятивной песочницы».
С точки зрения лицензирования, «регулятивная песочница» — это не только технологическая инновация, но и регулятивная инновация. Эта система фактически проводит эксперименты в двух аспектах: один — это экспериментальное управление регулируемым регулированием; другой — позволяет регулирующим органам проверять рациональность и необходимость регулирующих правил в «песочнице»;Зрелая «регулятивная песочница» — это совместная инновация между регулирующим органом и регулируемой средой, то есть регулирующий орган корректирует свои правила регулирования на основе обратной связи из «песочницы», а регулируемое также тестируется и проверяется на основе «песочницы». ситуацию, чтобы скорректировать свою бизнес-модель и направление развития технологий.
Но Чжан Линхань напомнил:«Регуляторная песочница» предъявляет более высокие требования к возможностям мониторинга и оценки регулирующих органов, и ее фактический эффект и влияние на отрасль требуют постоянного наблюдения.
02
Глобальное воздействие еще предстоит увидеть
ЕС всегда был в авангарде цифрового законодательства и пытается экспортировать стандарты в мир посредством «брюссельского эффекта».
«Эффект Брюсселя» относится к тому факту, что в процессе надзора ЕС за своим собственным внутренним единым рынком транснациональные компании приняли эти стандарты путем их соблюдения и постепенно превратили стандарты ЕС в мировые стандарты. Хорошим примером является внедрение GDPR. GDPR — это руководящие принципы и политики, регулирующие конфиденциальность персональных данных в Европейском Союзе, которые вступили в силу 25 мая 2018 года. Транснациональные технологические компании обеспечивают соответствие обработки данных требованиям GDPR и используют этот стандарт для обработки данных за пределами ЕС, что делает стандарт ЕС мировым стандартом.
Чжан Линхань считает, что собственная индустрия искусственного интеллекта в ЕС относительно слаба, поскольку является важным рынком для ИИ. «Закон об ИИ» пытается воспроизвести структуру глобального управления GDPR и еще больше расширить «брюссельский эффект», тем самым получая козыри для глобальной промышленной конкуренции. и перераспределение выгод. В связи с этим мир наблюдает, сможет ли «Закон об искусственном интеллекте» оправдать ожидания.
Существует необходимое условие для реализации «Закона об искусственном интеллекте». Как местные технологические компании ЕС, так и транснациональные технологические компании готовы принять вызовы, связанные с соблюдением требований.
Сесилия Боунфилд-Даль, генеральный директор Digital Europe, предупредила, что такой подход приводит к плохому регулированию.В будущем это будет препятствовать конкуренции между Европой и Соединенными Штатами в сфере новых компаний, занимающихся искусственным интеллектом.«Дополнительные расходы на соблюдение требований для компаний ЕС еще больше сократили нашу прибыль», — сказала она.«В то время как остальной мир нанимает программистов, мы нанимаем юристов».
Чжан Линхань сказал, что вступление в силу «Закона об искусственном интеллекте» поставило перед технологическими компаниями, работающими в Европе, многомерные проблемы, и он ввел соответствующие правила во всех аспектах разработки, тестирования, развертывания и применения продуктов искусственного интеллекта. По ее мнению, технологические компании должны не только увеличить инвестиции в затраты на соблюдение требований, чтобы обеспечить создание системы соответствия, соответствующей требованиям ЕС, но также должны продолжать оценивать и контролировать целевой рынок и вносить необходимые коррективы в исследования и Процесс разработки и функциональный дизайн обеспечивают соответствие высоким стандартам безопасности и прозрачности, требуемым Законом об искусственном интеллекте.
Нин Сюаньфэн считает, что наиболее интуитивно понятным является то, что в отношении поставщиков систем искусственного интеллекта с высоким уровнем риска влияние «Закона об искусственном интеллекте» будет, по крайней мере, отражено в затратах соответствующих организаций на адаптацию к соответствующим нормативным требованиям; другими словами, соответствующие организации могут даже не иметь возможности продолжать предоставлять соответствующие системы, что может в дальнейшем привести к соответствующим экономическим потерям.
Итак, как же должны реагировать китайские компании, занимающиеся искусственным интеллектом?
Чжан Линхань предположил, что вУровень соответствияКитайским предприятиям следует, во-первых, всесторонне оценить требования «Закона об искусственном интеллекте», оперативно и динамично корректировать стратегии соблюдения требований и создать внутренние системы управления соблюдением требований, во-вторых, им следует улучшить свои технологические инновационные возможности и ориентироваться на технические характеристики и функции продуктов систем искусственного интеллекта; .Разработайте соответствующие планы рисков;наконец,Международное сотрудничество и обмены следует укреплять,Обратите пристальное внимание на зарубежное законодательство и развитие правоприменения для повышения международной конкурентоспособности.
Пермит полагает, что ЕС не удастся воспроизвести «брюссельский» эффект GDPR. Есть три предпосылки успеха GDPR: первая — широкая юрисдикция, вторая — высокие стандарты юридических требований и третья — высокие штрафы. В настоящее время, хотя Закон об искусственном интеллекте соответствует GDPR в этих трех аспектах, важным отличием является то, что данные должны передаваться через границы, а системы искусственного интеллекта можно разделить. Подвижность данных позволяет регуляторам косвенно оказывать глобальное влияние, контролируя приток и отток данных в ЕС, но это не может быть отражено в регулировании ИИ.Компании, занимающиеся искусственным интеллектом, могут полностью создать делимые рынки и им не нужно соблюдать правила ЕС при развитии отрасли искусственного интеллекта за пределами ЕС.
В качестве напоминания о лицензировании важно отметить, что в Законе об ИИ есть два исключения: одно — это исключение для исследований и разработок в области ИИ. Многие компании могут заниматься исследованиями и разработками в ЕС и предоставлять услуги за пределами ЕС. Второе — это исключение с открытым исходным кодом, которое ограничивает только некоторые системы искусственного интеллекта с закрытым исходным кодом. Например, Google может косвенно влиять на продукты и услуги на рынке ЕС через искусственный интеллект с открытым исходным кодом.
Сюй также отметил, что GDPR предоставляет людям очень сильные права, и эти частные права побудили отдельных лиц и НПО инициировать судебные иски для достижения надзора посредством судебных разбирательств. «Закон об искусственном интеллекте» по существу оговаривает ответственность за качество продукции систем искусственного интеллекта.Людям не предоставляются новые права, поэтому их соблюдение может зависеть только от административного правоприменения ЕС. Согласно принципу суверенитета, соответствующее правоприменение фактически может осуществляться только внутри ЕС, что также представляет собой проблему глобального влияния ИИ. Закон.
Однако Сунь Юаньчжао, ученый-правовед из США, считает, что требования соблюдения «Закона об искусственном интеллекте» могут вызвать определенную степень неудобств для деятельности предприятий, но это касается любых требований соответствия. С положительной точки зрения, это может в определенной степени избежать крупных аварий, связанных с безопасностью, а если, к сожалению, произойдет авария, мы сможем в кратчайшие сроки провести мозговой штурм, чтобы совместно найти проблему и решение. Это также поможет найти решение. доверие общества и способствовать здоровому и упорядоченному развитию всего рынка.