Mi información de contacto
Correo[email protected]
2024-08-13
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
“
La UE espera utilizar la inteligencia artificial para tomar la iniciativa en la legislación y las normas globales. Sin embargo, ha atraído críticas generalizadas por introducir rápidamente medidas regulatorias estrictas en la etapa inicial del desarrollo industrial. El proceso de implementación real y el efecto de implementación de la ley permanecen. para ser visto.
El número de palabras de este artículo es 6256 y el tiempo de lectura es de aproximadamente 18.minuto
Texto |Ley financiera electrónica Fan Shuo
Editar |Guo Li Qin
La UE vuelve a liderar el mundo en velocidad de legislación, esta vez en el campo de la inteligencia artificial, que sigue de moda. Sin embargo, todavía no está claro cómo se implementarán en última instancia estos términos vagos.
En agosto, entró oficialmente en vigor la primera ley del mundo que regula integralmente la inteligencia artificial, la Ley Europea de Inteligencia Artificial (en lo sucesivo, la "Ley de IA").
Lo que más ha llamado la atención es que las disposiciones de la Ley de IA se implementarán por fases. El 1 de agosto es la fecha en que esta ley entra en vigor, pero sólo algunas de sus disposiciones están vigentes. Según el calendario, las prácticas prohibidas en el proyecto de ley se aplicarán seis meses después de su entrada en vigor; las obligaciones y normas pertinentes para la inteligencia artificial general se aplicarán 12 meses a partir del 1 de agosto; después de 24 meses, el proyecto de ley será totalmente aplicable, pero algunas normas; para sistemas de IA de alto riesgo comenzarán a aplicarse después de 36 meses.
Este conjunto de normas regulatorias integrales para la IA, conocidas como las "más estrictas" de la historia, incluyen a todas las entidades de la cadena de la industria de la IA dentro del alcance de la supervisión, incluidos los proveedores, usuarios, importadores y distribuidores de sistemas de IA que tienen conexiones con la IA. Mercado de la UE. Comerciantes y fabricantes de productos, etc.
La "Ley de IA" también amplió las herramientas regulatorias: no solo introdujo un modelo de gestión jerárquico orientado al riesgo, sino que también diseñó un "sandbox regulatorio" para reducir la carga de cumplimiento para las pequeñas y medianas empresas y las nuevas empresas. Los "dientes" afilados también llamaron la atención:Si se violan las disposiciones pertinentes, las empresas pueden recibir multas de hasta 35 millones de euros (aproximadamente 270 millones de yuanes), o el 7% de las ventas anuales globales en el año fiscal anterior (lo que sea mayor).
Desde el comienzo de la formulación de la Ley de IA, la UE esperaba utilizarla para liderar normas en el campo de la IA.
La "Ley de IA" fue anunciada por la jefa de Asuntos Digitales de la UE, Margaret Vestager, en abril de 2021. En ese momento, dijo: "La UE está tomando la iniciativa en el desarrollo de nuevas normas globales para garantizar que la inteligencia artificial sea confiable", dijo Thierry Breton. El comisario de Mercado Interior de la Comisión, también dijo en las redes sociales que la ley “será una guía importante para ayudar a las empresas emergentes y a los investigadores de la UE a liderar la competencia global en el campo de la IA”.
Sin embargo, la rápida introducción de la Ley de IA cuando el desarrollo de la industria de la IA aún estaba en su infancia también ha suscitado críticas generalizadas.Los opositores argumentan que los intentos apresurados de regular los modelos subyacentes limitarán el uso de la tecnología en sí.
Xu Xu, director del Centro de Investigación de Economía Digital e Innovación Jurídica de la Universidad de Economía y Negocios Internacionales, cree que las disposiciones de implementación gradual de la "Ley de IA" darán a las empresas de la UE un período de amortiguación suficiente, del que vale la pena aprender en legislación pertinente.
Después de estudiar las disposiciones, Zhang Linghan, profesor del Instituto de Derecho de Datos de la Universidad de Ciencias Políticas y Derecho de China y miembro chino del Órgano Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial, dijo que aunque la "Ley de IA" es Se sabe que son estrictas, la implementación limitada de medidas regulatorias y herramientas regulatorias innovadoras son todas las regulaciones de la UE que las empresas de IA brindan un espacio necesario para el desarrollo flexible.También aumenta los costos de cumplimiento para las empresas fuera de la UE.
Ning Xuanfeng, jefe de cumplimiento de King & Wood Mallesons, cree que los efectos y el impacto reales de la "Ley de IA" deben observarse después de que todas las disposiciones entren en vigor, combinados con el desarrollo y los resultados regulatorios de la industria de la IA en ese momento. tiempo. La implicación para los legisladores chinos es que los sistemas de IA de alto riesgo involucran a múltiples entidades relevantes durante todo el proceso de puesta en uso. La Ley de IA establece requisitos de cumplimiento basados en el grado de participación de las entidades relevantes y aborda las violaciones por parte de las mismas. Se fijaron multas. En opinión de Ning Xuanfeng, las actuales “Medidas provisionales para la gestión de servicios de inteligencia artificial generativa” de China se centran principalmente en los proveedores de servicios como punto de partida para la gobernanza. Si China legisla sobre la IA en el futuro, puede considerar establecer un mecanismo de responsabilidad que cubra a todas las partes en la cadena de valor del sistema de IA, lo que será más útil para demarcar los límites de responsabilidad de cada parte, estimulando así la investigación y el desarrollo o la motivación por el servicio.
01
Ilustración de la legislación de la UE
La UE ha llevado a cabo discusiones detalladas que cubren las preocupaciones de todas las partes durante el proceso legislativo. Estos contenidos, así como la orientación y el pensamiento de toda la legislación, también han aportado valiosas referencias a otros países o regiones.
La rápida legislación de la UE ha sido criticada internacionalmente.
Según informes de los medios, los legisladores de la UE mantuvieron negociaciones maratónicas en diciembre de 2023 para lograr que se adoptaran las reglas. Pero los críticos dicen que las reglas no van lo suficientemente lejos y que los reguladores pasan por alto detalles importantes que las empresas necesitan desesperadamente para hacer cumplir la ley. Algunos profesionales estiman queLa UE necesita entre 60 y 70 leyes secundarias para apoyar la implementación de la Ley de IA.
Kai Zena, asistente del Parlamento Europeo que participó en la redacción de la Ley de IA, admitió:"La ley es bastante vaga. La presión del tiempo deja muchas cosas en el aire. Los reguladores no pueden ponerse de acuerdo sobre estas cosas, por lo que es más fácil llegar a acuerdos".
Xu dijo que la mayor crítica a la Ley de IA es que se basa en un enfoque basado en el riesgo y carece de empoderamiento de las personas. Además, la futura implementación de la Ley de IA también deberá enfrentar una gran cantidad de problemas de coordinación con otras leyes y regulaciones. Por ejemplo, la coordinación con regulaciones legales como el Reglamento General de Protección de Datos (GDPR), la Ley de Mercados Digitales (DMA) y la Ley de Gobernanza de Datos (DGA) causará muchos problemas. Además, como ley general, la Ley de IA debe considerar cuestiones de implementación en múltiples campos, incluidas las finanzas, la atención médica, el transporte y otros campos.
"De hecho, puede causar más problemas de los que resuelve", afirmó Xu.
Aunque ha recibido críticas, las ideas legislativas de la "Ley de IA" han sido afirmadas, principalmente porque tiene en cuenta el proceso general de desarrollo de la industria.
Zhang Linghan señaló:Aunque se la conoce como la ley regulatoria de IA más estricta de la historia, las medidas regulatorias de la "Ley de IA" son en realidad limitadas y, durante su proceso de formulación, también se consideró que promovería el desarrollo general de la industria de IA de la UE.
Específicamente,Zhang Linghan cree que primero,La Ley de IA prevé exenciones para el desarrollo y utilización de algunos sistemas de IA.Incluye sistemas desarrollados específicamente para fines militares, de defensa o de seguridad nacional, sistemas desarrollados específicamente para investigación científica y sistemas de inteligencia artificial gratuitos y de código abierto.
En segundo lugar, la Ley de IA propone una serie de medidas de apoyo.Reducir la carga administrativa y financiera de las empresas de la UE, especialmente las pequeñas y medianas empresas.
En tercer lugar, el cronograma de cumplimiento gradual de la "Ley de IA" y el sistema de entorno de pruebas regulatorio creado por ella son respectivamenteProporciona una cierta cantidad de tiempo y espacio para el desarrollo de la industria de la IA de la UE.
Cuarto, el efecto extraterritorial de la Ley de IAAumento de los costes de cumplimiento para las empresas no pertenecientes a la UE, lo que limitará la voluntad de las empresas de fuera de la UE de expandir el mercado europeo, lo que puede reducir la presión competitiva sobre las empresas de la UE hasta cierto punto.
Xu cree que la implementación paso a paso de la Ley de IA puede deberse a dos razones. Por un lado, la inteligencia artificial es un campo de regulaciones en rápido desarrollo. Todavía existe una gran incertidumbre sobre cómo responder a los cambios en la tecnología y la industria después de que la ley entre en vigor. industria para permitir a las empresas revisar sus propias rutas técnicas y modelos de negocio. Por otro lado, la "Ley de IA" es una regla de gobernanza colaborativa. Para que las leyes se traduzcan al lenguaje técnico y a los estándares de la industria, es necesario cooperar con las autoridades reguladoras y las empresas, lo que también requiere reservar tiempo para la comunicación de riesgos, la comunicación y la coordinación entre empresas y autoridades reguladoras.
Según Wu Shenkuo, tutor de doctorado de la Facultad de Derecho de la Universidad Normal de Beijing y subdirector del Centro de Investigación de la Sociedad de Internet de China, la "Ley de IA" establece requisitos del sistema regulatorio con transparencia y equidad como lógica central para la investigación, el desarrollo y la aplicación industrial de inteligencia artificial. Tendrá un impacto a largo plazo en la dirección de la investigación y el desarrollo y en la aplicación de la IA al mercado, y también cambiará la distribución del mercado en Europa.
Entonces, ¿qué implicaciones traerán las dos herramientas regulatorias clave diseñadas en la Ley de IA para los legisladores de otros países?
La estructura regulatoria general de la "Ley de IA" gira en torno a cuatro categorías de niveles de riesgo, de mayor a menor, para aplicaciones de inteligencia artificial, similar a una "pirámide de riesgo", con los correspondientes mecanismos de prevención de riesgos establecidos respectivamente.
Según el impacto potencial de la inteligencia artificial en los usuarios y la sociedad, se divide en cuatro niveles:Categoría de riesgo inaceptable, categoría de alto riesgo, categoría de riesgo limitado, categoría de riesgo mínimo.
En el nivel más extremo, se prohibirá completamente el uso de sistemas o aplicaciones de inteligencia artificial que presenten riesgos inaceptables, como aquellos que se consideran una clara amenaza para la seguridad, la vida cotidiana y los derechos fundamentales de las personas.Los desarrolladores de dichos sistemas de inteligencia artificial recibirán una multa de hasta el 6% de la facturación global del año fiscal anterior.(Para más detalles, consulte:Avances en la legislación sobre inteligencia artificial en China y Europa durante el mismo período: ¿establecer un "semáforo" para ChatGPT?)
Cuatro niveles de riesgo de la inteligencia artificial, fuente: sitio web oficial de la Comisión Europea
Para los sistemas de inteligencia artificial de alto riesgo, la "Ley de IA" estipula un sistema de gestión de riesgos de proceso completo que abarca desde la entrada al mercado hasta la entrada al mercado. Antes de ingresar al mercado, las empresas deben establecer y mantener un sistema de gestión de riesgos, llevar a cabo la gobernanza de datos, desarrollar y actualizar la documentación técnica y proporcionar toda la información necesaria a las autoridades reguladoras, etc.
Wu Shenkuo introdujo que, como metodología básica, la clasificación y clasificación de riesgos se reflejará en diversos grados en la legislación de diferentes países y regiones. Su importante importancia y valor institucional radica en garantizar la proporcionalidad de la supervisión; al mismo tiempo que satisface las preocupaciones regulatorias centrales y las demandas estratégicas, también proporciona el espacio de desarrollo flexible necesario para el desarrollo de la IA.
En China, el sistema de clasificación y calificación orientado al riesgo también se refleja en la regulación de los algoritmos y la IA generativa. En septiembre de 2021, la Administración del Ciberespacio de China emitió las "Opiniones orientativas sobre el fortalecimiento de la gestión integral de los algoritmos de servicios de información de Internet", que proponían claramente promover la gestión de seguridad jerárquica y clasificada de los algoritmos, identificar eficazmente algoritmos de alto riesgo e implementar algoritmos precisos. gobernancia.En julio de 2023, las "Medidas provisionales para la gestión de servicios de inteligencia artificial generativa" emitidas por la Administración del Ciberespacio de China y otros departamentos también propusieron implementar una supervisión inclusiva, prudente, clasificada y jerárquica de los servicios de inteligencia artificial generativa.
Ning Xuanfeng cree que la estrategia de clasificación de riesgos se basa en necesidades regulatorias realistas para la tecnología de IA sin comprender completamente los riesgos sociales que puede causar la tecnología de IA.Estrategia regulatoria progresiva.
Licensing cree que la clasificación y la graduación significan que las autoridades reguladoras deben asignar recursos regulatorios de acuerdo con una cierta proporción. En el futuro, la IA estará integrada en miles de industrias como el software de Office, por lo queLa clasificación jerárquica debería seguir siendo una de las ideas básicas para la supervisión de la IA.Sin embargo, la actual clasificación basada en riesgos debería abandonarse porque sólo considera los riesgos estáticos de la IA, pero no los beneficios dinámicos. Por ejemplo, los sistemas de IA de alto riesgo suelen generar altos rendimientos.
La clasificación jerárquica contenida en la "Ley de IA" es diferente de la lógica de clasificación jerárquica existente en China. Introducción a la licencia, clasificación en inglés es una palabra: clasificación. Pero en China, clasificación y calificación son dos conceptos: "clasificación" y "calificación". Lo que es más especial es que con la llegada de la inteligencia artificial general, es posible que sea necesario ajustar el método clásico de clasificación de los escenarios de aplicación de la IA de las políticas anteriores de China. Por ejemplo, el "Reglamento de gestión de recomendaciones de algoritmos de servicios de información de Internet" regula cinco categorías principales de "tecnologías de recomendación de algoritmos de aplicación", incluidos servicios de información como generación y síntesis, envío personalizado, clasificación y selección, recuperación y filtrado, y programación y toma de decisiones. haciendo.Sin embargo, la IA generativa ya no puede seguir esta idea y los modelos grandes se pueden aplicar en todos los campos.
Introducción a la licencia,En el caso del ajuste de clasificación, las autoridades reguladoras aún pueden realizar una gestión jerárquica de la inteligencia artificial. China adopta una clasificación basada en el grado de impacto de la IA.Por ejemplo, las “Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa”Se clasifican y califican los servicios de inteligencia artificial generativa que proporcionan atributos de opinión pública o capacidades de movilización social.Este tipo de proveedor de servicios ha presentado requisitos para el archivo de algoritmos y el archivo de modelos grandes. La lógica es que algunos sistemas de IA tienen un impacto significativo en el país y el orden social, por lo que las autoridades reguladoras tomarán diferentes medidas regulatorias. Sin embargo, Xu Xu cree que esto no significa que la legislación de IA de China continuará con las mismas medidas regulatorias en el futuro, pero es previsible queLas autoridades reguladoras utilizarán varios factores para determinar el impacto de los sistemas de IA y establecer las medidas regulatorias correspondientes.
Zhang Linghan también dijo:A medida que la IA generativa se vuelve más versátil, el sistema de clasificación de China debe ajustarse a la par del desarrollo de la tecnología.
Continuando con el borrador anterior, la "Ley de IA" introduce el sistema de "zona de pruebas regulatoria" común en la supervisión de la tecnología financiera.
El llamado "sandbox regulatorio" tiene como objetivo crear un espacio seguro supervisado y controlable, que permita a las empresas, especialmente las pequeñas y medianas empresas y las empresas de nueva creación, ingresar al "sandbox" y participar activamente en el desarrollo y desarrollo de IA innovadora. sistemas bajo la estricta supervisión de agencias reguladoras. Pruebe y luego lance estos sistemas de IA al mercado de servicios. Si se descubren riesgos importantes durante el desarrollo y las pruebas, se deben mitigar inmediatamente. Si los riesgos no se pueden mitigar o controlar, se deben suspender las pruebas abiertas.
El "Regulatory Sandbox" fue creado por primera vez por la Autoridad de Conducta Financiera Británica (FCA) en 2015. Según Li, el sistema de "zona de pruebas regulatoria" es una iniciativa de la UE para apoyar la innovación, con el objetivo de lograr la innovación tecnológica bajo riesgos controlables. La "zona de pruebas regulatoria" puede crear un entorno controlable, tomar medidas regulatorias específicas para algunas aplicaciones de IA y darle a la IA potencialmente riesgosa un espacio para prueba y error.
Wu Shenkuo también dijo que la "zona de pruebas regulatoria" es una de las características de la "Ley de IA". Frente a nuevas tecnologías y aplicaciones como la IA, pueden ayudar o promover un diálogo continuo entre los reguladores de la UE y las personas reguladas.abordar el equilibrio dinámico entre los avances tecnológicos y las preocupaciones regulatorias.
Actualmente, varios estados miembros de la UE están poniendo a prueba un sistema de “zona de pruebas regulatoria” en el campo de la IA.
Francia comenzará a poner a prueba el sistema de "zona de pruebas regulatoria" en 2022, centrándose enindustria educativaActualmente hay 5 empresas participando en el piloto.
En mayo de 2024, España solicitó opiniones sobre la implementación de un "sandbox regulatorio". España lo tiene claroLos sistemas de inteligencia artificial de alto riesgo, la inteligencia artificial general y los modelos básicos en ocho campos, incluida la biometría, la infraestructura crítica y la educación y capacitación, son aplicables al sistema de "zona de pruebas regulatoria".También proporciona regulaciones más detalladas sobre el acceso al proyecto, la presentación de documentos, la gestión de riesgos y las condiciones de salida.
Noruega y Suiza también tienen proyectos piloto similares. Por ejemplo, el proveedor noruego de transporte público Ruter llevó a cabo una evaluación de riesgos de su algoritmo de IA de recomendación de viajes en línea basado en el "sandbox regulatorio". Las cinco empresas piloto en Suiza se dedican respectivamente aMaquinaria agrícola no tripulada, drones, traducción automática, corrección de errores de operación y programación de estacionamiento, etc.investigación y desarrollo en el campo.
En China, el sistema de “zona de pruebas regulatoria” también se aplica en la supervisión de la tecnología financiera. El 31 de enero de 2019, en la “Respuesta al Plan de Trabajo Piloto Integral para Promover Integralmente la Expansión y Apertura de la Industria de Servicios de Beijing”, el Consejo de Estado acordó que Beijing debería explorar el mecanismo de “zona de pruebas regulatoria” bajo la premisa de cumplimiento. El 5 de diciembre de 2019, el Banco Popular de China aprobó el apoyo a Beijing para que tome la iniciativa en el lanzamiento de un proyecto piloto a nivel nacional para la supervisión de la innovación en tecnología financiera y explore una versión china del "sandbox regulatorio".
Desde la perspectiva de las Licencias, el “sandbox regulatorio” no es sólo una innovación tecnológica, sino también una innovación regulatoria. En realidad, este sistema está realizando experimentos en dos aspectos: uno es la gobernanza experimental de los regulados; el otro permite a los reguladores probar la racionalidad y necesidad de las reglas regulatorias dentro de un entorno de pruebas.Un "sandbox regulatorio" maduro es una innovación colaborativa entre el regulador y los regulados, es decir, el regulador ajusta sus reglas regulatorias en función de la retroalimentación del "sandbox", y lo regulado también se prueba y verifica con base en el "sandbox". situación, para ajustar su modelo de negocio y dirección de desarrollo tecnológico.
Pero Zhang Linghan recordó:El “sandbox regulatorio” impone mayores requisitos a las capacidades de monitoreo y evaluación de las agencias reguladoras, y su efecto real y su impacto en la industria aún deben observarse continuamente.
02
El impacto global aún está por verse
La UE siempre ha estado a la vanguardia de la legislación digital y está intentando exportar estándares al mundo a través del "efecto Bruselas".
El "efecto Bruselas" se refiere al hecho de que en el proceso de supervisión de la UE de su propio mercado único interno, las empresas multinacionales han aceptado estos estándares mediante el cumplimiento y gradualmente han hecho que los estándares de la UE se conviertan en estándares mundiales. La implementación del RGPD es un buen ejemplo. GDPR son las pautas y políticas que rigen la privacidad de los datos personales en la Unión Europea, que entraron en vigor el 25 de mayo de 2018. Las empresas multinacionales de tecnología implementan el cumplimiento del procesamiento de datos según los requisitos del RGPD y utilizan este estándar para el procesamiento de datos fuera de la UE, lo que convierte al estándar de la UE en un estándar mundial.
Zhang Linghan cree que, como mercado importante para la IA, la propia industria de la IA de la UE es relativamente débil. La "Ley de IA" intenta reproducir el marco de gobernanza global del RGPD y ampliar aún más el "Efecto Bruselas", ganando así moneda de cambio para la competencia industrial global. y redistribuir beneficios. En este sentido, el mundo está observando si la "Ley de IA" puede cumplir las expectativas.
Existe un requisito previo para la implementación de la "Ley de IA". Tanto las empresas tecnológicas locales de la UE como las multinacionales están dispuestas a aceptar desafíos de cumplimiento.
Cecilia Bonefield-Dahl, directora general de Digital Europe, advirtió que este enfoque conducía a una mala regulación,Obstaculizará la competencia entre Europa y Estados Unidos en el campo de las nuevas empresas de inteligencia artificial en el futuro."Los costos adicionales de cumplimiento para las empresas de la UE han reducido aún más nuestras ganancias", dijo."Mientras el resto del mundo contrata programadores, nosotros contratamos abogados".
Zhang Linghan dijo que la entrada en vigor de la "Ley de IA" ha planteado desafíos multidimensionales a las empresas de tecnología que operan en Europa y ha establecido las regulaciones correspondientes en todos los aspectos del desarrollo, prueba, implementación y aplicación de productos de IA. En su opinión, las empresas de tecnología no sólo deben aumentar la inversión en costes de cumplimiento para garantizar el establecimiento de un sistema de cumplimiento que esté en consonancia con la UE, sino que también deben seguir evaluando y supervisando el mercado objetivo y haciendo los ajustes necesarios en la investigación y Proceso de desarrollo y diseño funcional para garantizar Cumplir con los altos estándares de seguridad y transparencia requeridos por la Ley de IA.
Ning Xuanfeng cree que lo más intuitivo es que, en lo que respecta a los proveedores de sistemas de IA de alto riesgo, el impacto de la "Ley de IA" se reflejará al menos en los costos de cumplimiento de las entidades pertinentes para adaptarse a los requisitos reglamentarios pertinentes; En otras palabras, es posible que las entidades pertinentes ni siquiera puedan seguir proporcionando los sistemas pertinentes, lo que puede causar aún más las pérdidas económicas correspondientes.
Entonces, ¿cómo deberían responder las empresas chinas de IA?
Zhang Linghan sugirió que enNivel de cumplimiento, las empresas chinas deben primero evaluar exhaustivamente los requisitos de la "Ley de IA", ajustar rápida y dinámicamente las estrategias de cumplimiento y establecer sistemas internos de gestión del cumplimiento; en segundo lugar, deben mejorar sus capacidades de innovación tecnológica y centrarse en las características técnicas y funciones de los productos de los sistemas de IA; .Desarrollar planes de riesgo relevantes.;por fin,Es necesario fortalecer la cooperación y los intercambios internacionales,Preste mucha atención a la legislación extranjera y a los avances en materia de aplicación de la ley para mejorar la competitividad internacional.
Permit cree que la UE no logrará reproducir el efecto "Bruselas" del RGPD. Hay tres requisitos previos para el éxito del RGPD: el primero es una jurisdicción amplia, el segundo son requisitos legales de alto nivel y el tercero son multas elevadas. En la actualidad, aunque la Ley de IA es coherente con el RGPD en estos tres aspectos, una diferencia importante es que los datos deben cruzar fronteras y los sistemas de inteligencia artificial se pueden dividir. La fluidez de los datos permite a los reguladores tener indirectamente un impacto global al controlar la entrada y salida de datos en la UE, pero esto no puede reflejarse en la regulación de la IA.Las empresas de IA pueden establecer mercados completamente divisibles y no necesitan cumplir con las normas de la UE al desarrollar la industria de la IA fuera de la UE.
Como recordatorio de licencias, es importante tener en cuenta que existen dos exenciones en la Ley de IA: una es la exención para la investigación y el desarrollo de IA. Muchas empresas pueden realizar investigación y desarrollo en la UE y prestar servicios fuera de la UE. La segunda es la exención de código abierto, que sólo restringe algunos sistemas de IA de código cerrado. Por ejemplo, Google puede influir indirectamente en productos y servicios en el mercado de la UE mediante inteligencia artificial de código abierto.
Xu también señaló que el RGPD otorga a los individuos derechos muy sólidos, y estos derechos privados han impulsado a individuos y ONG a iniciar demandas judiciales para lograr la supervisión a través de litigios. La "Ley de IA" estipula esencialmente la responsabilidad del producto de los sistemas de IA.A los individuos no se les otorgan nuevos derechos, por lo que su aplicación sólo puede depender de la aplicación administrativa de la UE. Sobre la base del principio de soberanía, la aplicación pertinente en realidad sólo puede llevarse a cabo dentro de la UE, lo que también plantea un desafío a la influencia global de la IA. Ley.
Sin embargo, Sun Yuanzhao, un jurista estadounidense, cree que los requisitos de cumplimiento de la "Ley de IA" pueden causar cierto grado de inconvenientes para las operaciones de las empresas, pero este es el caso con cualquier requisito de cumplimiento. Desde un punto de vista positivo, esto puede evitar accidentes graves de seguridad hasta cierto punto, y si desafortunadamente ocurre un accidente, podemos intercambiar ideas en el menor tiempo para descubrir juntos el problema y la solución. Esto también ayudará a establecer una solución. la confianza de la sociedad y promover el desarrollo sano y ordenado del mercado en su conjunto.