Minhas informações de contato
Correspondênciaadmin@informação.bz
2024-08-13
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
“
A UE espera utilizar a inteligência artificial para assumir a liderança na legislação e na liderança das regras globais. No entanto, atraiu críticas generalizadas por introduzir rapidamente medidas regulamentares rigorosas na fase inicial do desenvolvimento industrial. para ser visto.
O número de palavras neste artigo é 6.256 e o tempo de leitura é de cerca de 18minuto
Texto |Direito Financeiro Fan Shuo
Editar |Guo Liqin
A UE lidera mais uma vez o mundo na velocidade da legislação, desta vez no domínio da inteligência artificial, que continua quente. No entanto, ainda não está claro como estes termos vagos serão finalmente implementados.
Em agosto, a primeira lei do mundo que regulamenta de forma abrangente a inteligência artificial, a Lei Europeia de Inteligência Artificial (doravante denominada "Lei da IA"), entrou oficialmente em vigor.
O que mais tem chamado a atenção é que as disposições da Lei de IA serão implementadas em fases. 1º de agosto é a data em que esta lei entra em vigor, mas apenas algumas de suas disposições estão em vigor. De acordo com o cronograma, as práticas proibidas no projeto de lei serão aplicadas seis meses após sua entrada em vigor; as obrigações e regras relevantes para inteligência artificial geral serão aplicadas 12 meses a partir de 1º de agosto, o projeto será totalmente aplicável, mas algumas regras; para sistemas de IA de alto risco começarão a ser aplicadas após 36 meses.
Este conjunto de regras regulatórias abrangentes para IA, conhecido como o "mais rigoroso" da história, inclui todas as entidades da cadeia da indústria de IA no âmbito da supervisão, incluindo fornecedores de sistemas de IA, utilizadores, importadores e distribuidores que tenham ligações com o Mercado da UE e fabricantes de produtos, etc.
A "Lei da IA" também expandiu as ferramentas regulamentares: não só introduziu um modelo de gestão hierárquica orientado para o risco, mas também concebeu uma "sandbox regulamentar" para reduzir a carga de conformidade sobre as pequenas e médias empresas e start-ups. "Dentes" afiados também chamaram a atenção:Se as disposições relevantes forem violadas, as empresas podem ser multadas em até 35 milhões de euros (aproximadamente 270 milhões de yuans), ou 7% das vendas anuais globais no ano fiscal anterior (o que for maior).
Desde o início da formulação da Lei da IA, a UE esperava utilizá-la para liderar regras no domínio da IA.
A "Lei da IA" foi anunciada pela Chefe de Assuntos Digitais da UE, Margaret Vestager, em abril de 2021. Naquela época, ela disse: "A UE está assumindo a liderança no desenvolvimento de novas normas globais para garantir que a inteligência artificial seja confiável na UE." o comissário do mercado interno da Comissão também disse nas redes sociais que a lei “será um guia importante para ajudar as start-ups e os investigadores da UE a liderar a competição global no domínio da IA”.
No entanto, a rápida introdução da Lei da IA quando o desenvolvimento da indústria da IA ainda estava na sua infância também atraiu críticas generalizadas.Os opositores argumentam que tentativas precipitadas de regular os modelos subjacentes limitarão a utilização da própria tecnologia.
Xu Xu, diretor do Centro de Pesquisa de Economia Digital e Inovação Jurídica da Universidade de Negócios e Economia Internacionais, acredita que as disposições de implementação gradual da "Lei da IA" visam dar às empresas da UE um período de amortecimento suficiente, com o qual vale a pena aprender em legislação relevante.
Depois de estudar as disposições, Zhang Linghan, professor do Instituto de Direito de Dados da Universidade de Ciência Política e Direito da China e membro chinês do Órgão Consultivo de Alto Nível das Nações Unidas sobre Inteligência Artificial, disse que embora a "Lei da IA" seja conhecida por ser rigorosa, a implementação limitada de medidas regulatórias e ferramentas regulatórias inovadoras são todas regulamentações da UE que fornecem um espaço necessário para o desenvolvimento flexível, mas as empresas de IA.Também aumenta os custos de conformidade para empresas de países terceiros.
Ning Xuanfeng, chefe de conformidade da King & Wood Mallesons, acredita que os reais efeitos e impacto da "Lei de IA" precisam ser observados depois que todas as disposições entrarem em vigor, combinadas com o desenvolvimento e os resultados regulatórios da indústria de IA naquele tempo. A implicação para os legisladores chineses é que os sistemas de IA de alto risco envolvem múltiplas entidades relevantes ao longo de todo o processo de colocação em uso. A Lei de IA estabelece requisitos de conformidade com base no grau de participação das entidades relevantes e aborda as violações por parte relevante. foram estabelecidas multas. Na opinião de Ning Xuanfeng, as actuais “Medidas Provisórias para a Gestão de Serviços Gerativos de Inteligência Artificial” da China centram-se principalmente nos prestadores de serviços como ponto de partida para a governação. Se a China legislar sobre IA no futuro, poderá considerar o estabelecimento de um mecanismo de responsabilidade que abranja todas as partes da cadeia de valor do sistema de IA, o que será mais útil para demarcar os limites de responsabilidade de cada parte, estimulando assim a investigação e desenvolvimento ou a motivação de serviço.
01
Iluminismo da legislação da UE
A UE realizou debates detalhados que abrangeram as preocupações de todas as partes durante o processo legislativo. Estes conteúdos, bem como a orientação e reflexão de toda a legislação, também trouxeram valiosas referências a outros países ou regiões.
A rápida legislação da UE foi criticada internacionalmente.
De acordo com relatos da mídia, os legisladores da UE realizaram uma maratona de negociações em dezembro de 2023 para que as regras fossem adotadas. Mas os críticos dizem que as regras não vão longe o suficiente, com os reguladores omitindo detalhes importantes que as empresas precisam desesperadamente para fazer cumprir a lei. Alguns profissionais estimam queA UE precisa de 60 a 70 atos legislativos derivados para apoiar a implementação da Lei da IA.
Kai Zena, assistente do Parlamento Europeu que participou na elaboração da Lei da IA, admitiu:"A lei é bastante vaga. A pressão do tempo deixa muitas coisas no ar. Os reguladores não conseguem chegar a acordo sobre estas coisas, por isso é mais fácil chegar a um acordo."
Xu disse que a maior crítica à Lei da IA é que ela se baseia em uma abordagem baseada no risco e carece de capacitação dos indivíduos. Além disso, a futura implementação da Lei da IA também terá de enfrentar um grande número de questões de coordenação com outras leis e regulamentos. Por exemplo, a coordenação com regulamentações legais como o Regulamento Geral de Proteção de Dados (GDPR), a Lei dos Mercados Digitais (DMA) e a Lei de Governança de Dados (DGA) causará muitos problemas. Além disso, como lei geral, a Lei da IA precisa considerar questões de implementação em vários campos, incluindo finanças, assistência médica, transporte e outros campos.
“Na verdade, pode causar mais problemas do que soluções”, disse Xu.
Embora tenha recebido críticas, as ideias legislativas da “Lei da IA” foram afirmadas, principalmente porque leva em consideração o processo global de desenvolvimento da indústria.
Zhang Linghan apontou,Embora seja conhecida como a lei regulatória de IA mais rigorosa da história, as medidas regulatórias da "Lei de IA" são na verdade limitadas e, durante o seu processo de formulação, também foi considerada para promover o desenvolvimento geral da indústria de IA da UE.
Especificamente,Zhang Linghan acredita que primeiro,A Lei da IA prevê isenções para o desenvolvimento e utilização de alguns sistemas de IA.Inclui sistemas desenvolvidos especificamente para fins militares, de defesa ou de segurança nacional, sistemas desenvolvidos especificamente para investigação científica e sistemas de inteligência artificial gratuitos e de código aberto.
Em segundo lugar, a Lei da IA propõe uma série de medidas de apoio.Reduzir os encargos administrativos e financeiros sobre as empresas da UE, especialmente as pequenas e médias empresas.
Terceiro, o cronograma de cumprimento faseado da "Lei da IA" e o sistema de sandbox regulatório criado por ela são respectivamenteProporciona um certo tempo e espaço para o desenvolvimento da indústria de IA da UE.
Em quarto lugar, o efeito extraterritorial da Lei da IAAumento dos custos de conformidade para empresas fora da UE, o que limitará a vontade das empresas de países terceiros de expandir o mercado europeu, o que pode reduzir, em certa medida, a pressão competitiva sobre as empresas da UE.
Xu acredita que a implementação passo a passo da Lei de IA pode ser devido a dois motivos. Por um lado, a inteligência artificial é um campo de regulamentação em rápido desenvolvimento. Ainda há uma grande incerteza sobre como responder às mudanças na tecnologia e na indústria após a entrada em vigor da lei. indústria para permitir que as empresas revejam as suas próprias rotas técnicas e modelos de negócios; por outro lado, a “Lei da IA” é uma regra de governança colaborativa. Para que as leis sejam traduzidas em linguagem técnica e padrões industriais, é necessário cooperar com as autoridades reguladoras e as empresas, o que também exige reservar tempo para a comunicação de riscos, comunicação e coordenação entre empresas e autoridades reguladoras.
De acordo com Wu Shenkuo, tutor de doutorado da Escola de Direito da Universidade Normal de Pequim e vice-diretor do Centro de Pesquisa da Sociedade da Internet da China, a "Lei da IA" estabelece requisitos de sistema regulatório com transparência e justiça como a lógica central para a pesquisa e desenvolvimento e aplicação industrial de inteligência artificial. Terá um impacto a longo prazo na direção da investigação e desenvolvimento e na aplicação da IA no mercado, e também alterará a configuração do mercado da Europa.
Então, que implicações as duas principais ferramentas regulatórias concebidas na Lei de IA trarão para legisladores de outros países?
A estrutura regulamentar global da "Lei da IA" gira em torno de quatro categorias de níveis de risco, de alto a baixo, para aplicações de inteligência artificial, semelhante a uma "pirâmide de risco", com mecanismos de prevenção de risco correspondentes estabelecidos respetivamente.
De acordo com o impacto potencial da inteligência artificial nos usuários e na sociedade, ela é dividida em quatro níveis:Categoria de risco inaceitável, categoria de alto risco, categoria de risco limitado, categoria de risco mínimo.
No nível mais extremo, a utilização de sistemas ou aplicações de inteligência artificial que representem riscos inaceitáveis, tais como aqueles considerados como constituindo uma ameaça clara à segurança das pessoas, à vida quotidiana e aos direitos fundamentais, será completamente proibida.Os desenvolvedores de tais sistemas de IA serão multados em até 6% do volume de negócios global no ano fiscal anterior.(Para obter detalhes, consulte:Avanços na legislação sobre IA na China e na Europa no mesmo período: Definir um “semáforo” para ChatGPT?)
Quatro níveis de risco da inteligência artificial, fonte: site oficial da Comissão Europeia
Para sistemas de inteligência artificial de alto risco, a "Lei da IA" estipula um sistema de gestão de risco de processo completo que abrange a entrada pré-mercado até a entrada pós-mercado. Antes de entrar no mercado, as empresas precisam de estabelecer e manter um sistema de gestão de risco, conduzir a governação de dados, desenvolver e atualizar documentação técnica e fornecer todas as informações necessárias às autoridades reguladoras, etc.
Wu Shenkuo introduziu que, como metodologia básica, a classificação e classificação de risco serão refletidas em vários graus na legislação de diferentes países e regiões. O seu importante significado e valor institucional reside em garantir a proporcionalidade da supervisão - ao mesmo tempo que satisfaz as principais preocupações regulamentares e exigências estratégicas, também proporciona o espaço de desenvolvimento flexível necessário para o desenvolvimento da IA.
Na China, o sistema de classificação e classificação orientado para o risco também se reflete na regulamentação de algoritmos e IA generativa. Em setembro de 2021, a Administração do Ciberespaço da China emitiu as "Opiniões Orientadoras sobre o Fortalecimento da Gestão Abrangente de Algoritmos de Serviços de Informações da Internet", que propunham claramente promover o gerenciamento de segurança hierárquico e classificado de algoritmos, identificar efetivamente algoritmos de alto risco e implementar algoritmos precisos. governança.Em julho de 2023, as "Medidas Provisórias para a Gestão de Serviços Gerativos de Inteligência Artificial" emitidas pela Administração do Ciberespaço da China e outros departamentos também propuseram a implementação de supervisão inclusiva, prudente e classificada e hierárquica de serviços generativos de inteligência artificial.
Ning Xuanfeng acredita que a estratégia de classificação de risco se baseia nas necessidades regulatórias realistas da tecnologia de IA, sem compreender totalmente os riscos sociais que podem ser causados pela tecnologia de IA.Estratégia regulatória progressiva.
O licenciamento acredita que a classificação e classificação significam que as autoridades reguladoras devem alocar recursos regulatórios de acordo com uma certa proporção. No futuro, a IA será incorporada em milhares de indústrias como o software Office, por issoA classificação hierárquica ainda deve ser uma das ideias básicas para a supervisão da IA.No entanto, a atual classificação e classificação baseada no risco deve ser abandonada porque apenas vê os riscos estáticos da IA, mas não os benefícios dinâmicos. Por exemplo, sistemas de IA de alto risco significam frequentemente retornos elevados.
A classificação hierárquica na "Lei da IA" é diferente da lógica de classificação hierárquica existente na China. Introdução ao licenciamento, classificação em inglês é uma palavra - classificação. Mas na China, classificação e classificação são dois conceitos: “classificação” e “classificação”. O que é mais especial é que, com o advento da inteligência artificial geral, o método clássico de classificação de cenários de aplicação de IA nas políticas anteriores da China pode precisar de ser ajustado. Por exemplo, o "Regulamento de gerenciamento de recomendação de algoritmo de serviço de informação da Internet" regula cinco categorias principais de "tecnologias de recomendação de algoritmo de aplicação", incluindo serviços de informação como geração e síntese, push personalizado, classificação e seleção, recuperação e filtragem, e agendamento e decisão. fazendo.No entanto, a IA generativa já não pode seguir esta ideia e grandes modelos podem ser aplicados em todos os campos.
Introdução ao licenciamento,No caso de ajuste de classificação, as autoridades reguladoras ainda podem realizar a gestão hierárquica da inteligência artificial. A China adota uma classificação baseada no grau de impacto da IA.Por exemplo, as “Medidas Provisórias para a Gestão de Serviços de Inteligência Artificial Gerativa”Os serviços geradores de inteligência artificial que fornecem atributos de opinião pública ou capacidades de mobilização social são classificados e graduados.Este tipo de provedor de serviços apresentou requisitos para arquivamento de algoritmos e arquivamento de modelos grandes. A lógica é que alguns sistemas de IA têm um impacto significativo no país e na ordem social, pelo que as autoridades reguladoras tomarão diferentes medidas regulamentares. No entanto, Xu Xu acredita que isso não significa que a legislação de IA da China continuará com as mesmas medidas regulatórias no futuro, mas é previsível queAs autoridades reguladoras utilizarão vários factores para determinar o impacto dos sistemas de IA e definir as medidas regulamentares correspondentes.
Zhang Linghan também disse:À medida que a IA generativa se torna mais versátil, o sistema de classificação da China precisa de ser ajustado de acordo com o desenvolvimento da tecnologia.
Dando continuidade ao projeto anterior, a "Lei da IA" introduz o sistema de "sandbox regulatório" comum na supervisão de tecnologia financeira.
A chamada "sandbox regulatória" visa criar um espaço seguro supervisionado e controlável, permitindo que as empresas, especialmente pequenas e médias empresas e start-ups, entrem na "sandbox" e participem ativamente no desenvolvimento e desenvolvimento de IA inovadora sistemas sob a estrita supervisão das agências reguladoras Testar e depois lançar esses sistemas de IA no mercado de serviços. Se forem descobertos riscos importantes durante o desenvolvimento e os testes, os riscos deverão ser mitigados imediatamente. Se os riscos não puderem ser mitigados ou controlados, os testes abertos deverão ser suspensos.
A "Sandbox Regulatória" foi criada pela primeira vez pela British Financial Conduct Authority (FCA) em 2015. Segundo Li, o sistema de "sandbox regulatório" é uma iniciativa da UE para apoiar a inovação, com o objetivo de alcançar a inovação tecnológica sob riscos controláveis. A “sandbox regulatória” pode criar um ambiente controlável, tomar medidas regulatórias específicas para algumas aplicações de IA e dar à IA potencialmente arriscada um espaço para tentativa e erro.
Wu Shenkuo também disse que a “caixa de areia regulatória” é uma das características da “Lei da IA”. Perante as novas tecnologias e aplicações como a IA, podem ajudar ou promover o diálogo contínuo entre os reguladores da UE e as pessoas regulamentadas.para abordar o equilíbrio dinâmico entre a evolução tecnológica e as preocupações regulamentares.
Atualmente, vários estados membros da UE estão a testar um sistema de “sandbox regulamentar” no domínio da IA.
A França começará a testar o sistema de "sandbox regulatório" em 2022, concentrando-se emIndústria educacional, existem atualmente 5 empresas participantes do piloto.
Em maio de 2024, a Espanha solicitou pareceres sobre a implementação de uma «sandbox regulamentar». Espanha é claraSistemas de inteligência artificial de alto risco, inteligência artificial geral e modelos básicos em oito domínios, incluindo biometria, infraestruturas críticas e educação e formação, são aplicáveis ao sistema de "sandbox regulamentar".Ele também fornece regulamentos mais detalhados sobre acesso a projetos, envio de documentos, gerenciamento de riscos e condições de saída.
A Noruega e a Suíça também têm projetos-piloto semelhantes. Por exemplo, o fornecedor norueguês de transportes públicos Ruter conduziu uma avaliação de risco no seu algoritmo de IA de recomendação de viagens online com base na "sandbox regulamentar". As cinco empresas piloto na Suíça estão respectivamente envolvidas emMáquinas agrícolas não tripuladas, drones, tradução automática, correção de erros de operação e agendamento de estacionamento, etc.pesquisa e desenvolvimento na área.
Na China, o sistema de “sandbox regulatório” também é aplicado na supervisão de tecnologia financeira. Em 31 de janeiro de 2019, na “Resposta sobre o Plano de Trabalho Piloto Abrangente para a Promoção Abrangente da Expansão e Abertura da Indústria de Serviços de Pequim”, o Conselho de Estado concordou que Pequim deveria explorar o mecanismo de “sandbox regulatório” sob a premissa de legalidade. conformidade. Em 5 de dezembro de 2019, o Banco Popular da China aprovou apoio para que Pequim assumisse a liderança no lançamento de um projeto piloto nacional para supervisão da inovação tecnológica financeira e explorasse uma versão chinesa da "sandbox regulatória".
Do ponto de vista do Licenciamento, a “sandbox regulatória” não é apenas uma inovação tecnológica, mas também uma inovação regulatória. Na verdade, este sistema está a realizar experiências em dois aspectos: um é a governação experimental dos regulamentados e o outro é permitir que os reguladores testem a racionalidade e a necessidade de regras regulamentares dentro de uma caixa de areia;Uma "sandbox regulatória" madura é uma inovação colaborativa entre o regulador e o regulado, ou seja, o regulador ajusta suas regras regulatórias com base no feedback da "sandbox", e o regulado também é testado e verificado com base na "sandbox" situação, para ajustar seu modelo de negócios e direção de desenvolvimento tecnológico.
Mas Zhang Linghan lembrou,A “sandbox regulatória” impõe requisitos mais elevados às capacidades de monitorização e avaliação das agências reguladoras, e o seu efeito real e o impacto na indústria continuam a ser continuamente observados.
02
O impacto global ainda está para ser visto
A UE sempre esteve na vanguarda da legislação digital e está a tentar exportar normas para o mundo através do “efeito Bruxelas”.
O "efeito Bruxelas" refere-se ao facto de que, no processo de supervisão da UE pelo seu próprio mercado único interno, as empresas multinacionais aceitaram estas normas através do cumprimento e gradualmente fizeram com que as normas da UE se tornassem normas mundiais. A implementação do GDPR é um bom exemplo. O GDPR são as diretrizes e políticas que regem a privacidade de dados pessoais na União Europeia, que entraram em vigor em 25 de maio de 2018. As empresas multinacionais de tecnologia implementam a conformidade de processamento de dados com base nos requisitos do GDPR e usam este padrão para processamento de dados fora da UE, tornando o padrão da UE um padrão mundial.
Zhang Linghan acredita que, sendo um mercado importante para a IA, a própria indústria de IA da UE é relativamente fraca. A "Lei da IA" tenta reproduzir o quadro de governação global do GDPR e alargar ainda mais o "Efeito Bruxelas", ganhando assim moedas de troca para a concorrência industrial global. e redistribuição de benefícios. A este respeito, o mundo está observando se a “Lei da IA” pode atender às expectativas.
Existe um pré-requisito para a implementação da "Lei da IA". Tanto as empresas tecnológicas locais da UE como as empresas multinacionais de tecnologia estão dispostas a aceitar desafios de conformidade.
Cecilia Bonefield-Dahl, diretora geral da Europa Digital, alertou que esta abordagem levou a uma regulamentação deficiente,Irá dificultar a concorrência entre a Europa e os Estados Unidos no domínio das novas empresas de inteligência artificial no futuro.“Os custos adicionais de conformidade para as empresas da UE reduziram ainda mais os nossos lucros”, disse ela.“Enquanto o resto do mundo contrata programadores, nós contratamos advogados.”
Zhang Linghan disse que a entrada em vigor da "Lei da IA" trouxe desafios multidimensionais para as empresas de tecnologia que operam na Europa e elaborou regulamentações correspondentes em todos os aspectos do desenvolvimento, teste, implantação e aplicação de produtos de IA. Na sua opinião, as empresas tecnológicas devem não só aumentar o investimento nos custos de conformidade para garantir o estabelecimento de um sistema de conformidade que esteja em conformidade com a UE, mas também devem continuar a avaliar e monitorizar o mercado-alvo e a fazer os ajustes necessários na investigação e processo de desenvolvimento e design funcional para garantir o atendimento aos altos padrões de segurança e transparência exigidos pela Lei de IA.
Ning Xuanfeng acredita que o mais intuitivo é que, no que diz respeito aos fornecedores de sistemas de IA de alto risco, o impacto da "Lei de IA" será pelo menos refletido nos custos de conformidade das entidades relevantes para se adaptarem aos requisitos regulamentares relevantes; por outras palavras, as entidades relevantes podem nem sequer ser capazes de continuar a fornecer sistemas relevantes, o que pode causar ainda mais perdas económicas correspondentes.
Então, como devem as empresas chinesas de IA responder?
Zhang Linghan sugeriu que emNível de conformidade, as empresas chinesas devem, em primeiro lugar, avaliar exaustivamente os requisitos da "Lei da IA", ajustar rápida e dinamicamente as estratégias de conformidade e estabelecer sistemas internos de gestão da conformidade; em segundo lugar, devem melhorar as suas capacidades de inovação tecnológica e visar as características técnicas e funções dos produtos dos sistemas de IA; .Desenvolva planos de risco relevantes;afinal,A cooperação e os intercâmbios internacionais devem ser reforçados,Preste muita atenção à legislação estrangeira e aos desenvolvimentos na aplicação da lei para aumentar a competitividade internacional.
Permit acredita que a UE não conseguirá reproduzir o efeito “Bruxelas” do GDPR. Existem três pré-requisitos para o sucesso do GDPR: o primeiro é a jurisdição ampla, o segundo são os requisitos legais de alto padrão e o terceiro são as multas elevadas. Actualmente, embora a Lei da IA seja consistente com o RGPD nestes três aspectos, uma diferença importante é que os dados precisam de fluir através das fronteiras e os sistemas de inteligência artificial podem ser divididos. A fluidez dos dados permite que os reguladores tenham indiretamente um impacto global, controlando a entrada e a saída de dados na UE, mas isso não pode ser refletido na regulamentação da IA.As empresas de IA podem estabelecer mercados completamente divisíveis e não precisam de cumprir as regras da UE ao desenvolver a indústria de IA fora da UE.
Como lembrete de licenciamento, é importante observar que existem duas isenções na Lei de IA: Uma é a isenção para pesquisa e desenvolvimento de IA. Muitas empresas podem realizar investigação e desenvolvimento na UE e prestar serviços fora da UE. A segunda é a isenção de código aberto, que restringe apenas alguns sistemas de IA de código fechado. Por exemplo, a Google pode influenciar indiretamente produtos e serviços no mercado da UE através de inteligência artificial de código aberto.
Xu também destacou que o GDPR confere aos indivíduos direitos muito fortes, e esses direitos privados têm promovido indivíduos e ONGs a iniciar ações judiciais para obter supervisão através de litígios. A "Lei da IA" estipula essencialmente a responsabilidade do produto dos sistemas de IA.Os indivíduos não recebem novos direitos, pelo que a sua aplicação só pode basear-se na aplicação administrativa da UE. Com base no princípio da soberania, a aplicação relevante só pode ser realizada dentro da UE, o que também representa um desafio à influência global da IA. Lei.
No entanto, Sun Yuanzhao, um jurista dos Estados Unidos, acredita que os requisitos de conformidade da "Lei da IA" podem causar um certo grau de inconveniência às operações das empresas, mas este é o caso com quaisquer requisitos de conformidade. De um ponto de vista positivo, isso pode evitar até certo ponto grandes acidentes de segurança e, se infelizmente ocorrer um acidente, podemos debater ideias no menor tempo possível para descobrirmos em conjunto o problema e a solução. a confiança da sociedade e promover o desenvolvimento saudável e ordenado do mercado global.