2024-08-13
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
“
L'UE espère utiliser l'intelligence artificielle pour prendre la tête de la législation et des règles mondiales. Cependant, elle a suscité de nombreuses critiques pour l'introduction rapide de mesures réglementaires strictes au stade initial du développement industriel. Le processus de mise en œuvre réel et l'effet de la loi demeurent. à voir.
Le nombre de mots dans cet article est de 6256 et le temps de lecture est d'environ 18minute
Texte |Fan Shuo du droit financier et électronique
Modifier |Guo Liqin
L’UE est une fois de plus leader mondial en termes de rapidité de législation, cette fois dans le domaine de l’intelligence artificielle, qui reste brûlant. Cependant, on ne sait toujours pas comment ces termes vagues seront finalement mis en œuvre.
En août, la première loi au monde réglementant de manière globale l'intelligence artificielle, la loi européenne sur l'intelligence artificielle (ci-après dénommée « loi sur l'IA »), est officiellement entrée en vigueur.
Ce qui a le plus retenu l’attention, c’est que les dispositions de la loi sur l’IA seront mises en œuvre par étapes. Le 1er août est la date d’entrée en vigueur de cette loi, mais seules certaines de ses dispositions sont en vigueur. Selon le calendrier, les pratiques interdites dans le projet de loi s'appliqueront six mois après son entrée en vigueur ; les obligations et règles pertinentes pour l'intelligence artificielle générale s'appliqueront 12 mois à compter du 1er août, après 24 mois, le projet de loi sera pleinement applicable, mais certaines règles ; pour les systèmes d’IA à haut risque commencera à s’appliquer après 36 mois.
Cet ensemble de règles réglementaires complètes pour l'IA, connu comme le « plus strict » de l'histoire, inclut toutes les entités de la chaîne industrielle de l'IA dans le champ de surveillance, y compris les fournisseurs de systèmes d'IA, les utilisateurs, les importateurs et les distributeurs qui ont des liens avec le Marché européen. Commerçants et fabricants de produits, etc.
La « loi sur l'IA » a également élargi les outils réglementaires : elle a non seulement introduit un modèle de gestion hiérarchique axé sur les risques, mais a également conçu un « bac à sable réglementaire » pour réduire le fardeau de conformité des petites et moyennes entreprises et des start-ups. Les « dents » pointues ont également attiré l'attention :Si les dispositions pertinentes ne sont pas respectées, les entreprises peuvent être condamnées à une amende pouvant aller jusqu'à 35 millions d'euros (environ 270 millions de yuans), soit 7 % du chiffre d'affaires annuel mondial de l'exercice précédent (le montant le plus élevé étant retenu).
Dès le début de la formulation de la loi sur l’IA, l’UE espérait l’utiliser pour diriger des règles dans le domaine de l’IA.
La « loi sur l'IA » a été annoncée par Margaret Vestager, chef des affaires numériques de l'UE, en avril 2021. À l'époque, elle avait déclaré : « L'UE prend la tête de l'élaboration de nouvelles normes mondiales pour garantir que l'intelligence artificielle est digne de confiance dans l'UE. Le commissaire au marché intérieur de la Commission a également déclaré sur les réseaux sociaux que la loi « sera un guide important pour aider les start-ups et les chercheurs de l'UE à diriger la concurrence mondiale dans le domaine de l'IA ».
Cependant, l’introduction rapide de la loi sur l’IA alors que le développement de l’industrie de l’IA en était encore à ses balbutiements a également suscité de nombreuses critiques.Les opposants soutiennent que les tentatives hâtives de réglementation des modèles sous-jacents limiteront l’utilisation de la technologie elle-même.
Xu Xu, directeur du Centre de recherche sur l'économie numérique et l'innovation juridique de l'Université de commerce international et d'économie, estime que les dispositions de mise en œuvre progressive de la « loi sur l'IA » visent à donner aux entreprises européennes une période tampon suffisante, dont il vaut la peine d'apprendre en législation pertinente.
Après avoir étudié les dispositions, Zhang Linghan, professeur à l'Institut de droit des données de l'Université chinoise des sciences politiques et du droit et membre chinois du Conseil consultatif de haut niveau des Nations Unies sur l'intelligence artificielle, a déclaré que même si la « loi sur l'IA » est Connue pour être stricte, la mise en œuvre limitée de mesures réglementaires et d'outils réglementaires innovants sont autant de réglementations européennes qui offrent aux entreprises d'IA un espace nécessaire à un développement flexible.Cela augmente également les coûts de mise en conformité pour les entreprises non européennes.
Ning Xuanfeng, responsable de la conformité chez King & Wood Mallesons, estime que les effets et l'impact réels de la « loi sur l'IA » doivent être observés après l'entrée en vigueur de toutes les dispositions, combinés aux résultats de développement et de réglementation de l'industrie de l'IA à ce moment-là. temps. L'implication pour les législateurs chinois est que les systèmes d'IA à haut risque impliquent plusieurs entités concernées tout au long du processus de mise en service. La loi sur l'IA définit les exigences de conformité basées sur le degré de participation des entités concernées et traite les violations par les entités concernées. Des amendes ont été fixées. Selon Ning Xuanfeng, les « mesures provisoires pour la gestion des services d’intelligence artificielle générative » actuelles de la Chine se concentrent principalement sur les fournisseurs de services comme point de départ de la gouvernance. Si la Chine légifère à l'avenir sur l'IA, elle pourrait envisager d'établir un mécanisme de responsabilité couvrant toutes les parties de la chaîne de valeur du système d'IA, ce qui serait plus utile pour délimiter les limites de responsabilité de chaque partie, stimulant ainsi la recherche et le développement ou la motivation de service.
01
Les enseignements de la législation européenne
L’UE a mené des discussions détaillées couvrant les préoccupations de toutes les parties au cours du processus législatif. Ces contenus, ainsi que l'orientation et la réflexion de l'ensemble de la législation, ont également apporté de précieuses références à d'autres pays ou régions.
La législation rapide de l'UE a été critiquée au niveau international.
Selon les médias, les législateurs européens ont mené des négociations marathon en décembre 2023 pour faire adopter les règles. Mais les critiques estiment que les règles ne vont pas assez loin, les régulateurs manquant de détails importants dont les entreprises ont désespérément besoin pour faire appliquer la loi. Certains professionnels estiment queL’UE a besoin de 60 à 70 textes de droit dérivé pour soutenir la mise en œuvre de la loi sur l’IA.
Kai Zena, assistant au Parlement européen qui a participé à la rédaction de la loi sur l'IA, a admis :"La loi est assez vague. Les contraintes de temps laissent beaucoup de choses en suspens. Les régulateurs ne peuvent pas se mettre d'accord sur ces choses, il est donc plus facile de faire des compromis."
Xu a déclaré que la plus grande critique de la loi sur l'IA est qu'elle est basée sur une approche basée sur les risques et qu'elle manque d'autonomisation des individus. En outre, la future mise en œuvre de la loi sur l’IA devra également faire face à un grand nombre de problèmes de coordination avec d’autres lois et réglementations. Par exemple, la coordination avec des réglementations légales telles que le règlement général sur la protection des données (RGPD), la loi sur les marchés numériques (DMA) et la loi sur la gouvernance des données (DGA) posera de nombreux problèmes. En outre, en tant que loi générale, la loi sur l'IA doit tenir compte des questions de mise en œuvre dans plusieurs domaines, notamment la finance, les soins médicaux, les transports et d'autres domaines.
"En fait, cela pourrait causer plus de problèmes qu'il n'en résoudrait", a déclaré Xu.
Bien qu'elles aient suscité des critiques, les idées législatives de la « Loi sur l'IA » ont été affirmées, principalement parce qu'elles prennent en compte le processus de développement global de l'industrie.
Zhang Linghan a souligné :Bien qu'elle soit connue comme la loi réglementaire sur l'IA la plus stricte de l'histoire, les mesures réglementaires de la « loi sur l'IA » sont en réalité limitées et, lors de son processus de formulation, elle a également été considérée comme favorisant le développement global de l'industrie européenne de l'IA.
Spécifiquement,Zhang Linghan pense que d'abord,La loi sur l'IA prévoit des exemptions pour le développement et l'utilisation de certains systèmes d'IA.Comprend les systèmes développés spécifiquement à des fins militaires, de défense ou de sécurité nationale, les systèmes développés spécifiquement pour la recherche scientifique et les systèmes d'intelligence artificielle gratuits et open source.
Deuxièmement, la loi IA propose une série de mesures d’accompagnement.Réduire la charge administrative et financière pesant sur les entreprises de l'UE, en particulier les petites et moyennes entreprises.
Troisièmement, le calendrier de mise en conformité progressive de la « Loi sur l'IA » et du système de bac à sable réglementaire créé par celle-ci sont respectivementIl accorde un certain temps et un certain espace pour le développement de l’industrie européenne de l’IA.
Quatrièmement, l’effet extraterritorial de la loi sur l’IAAugmentation des coûts de conformité pour les entreprises non européennes, ce qui limitera la volonté des entreprises non européennes d'élargir le marché européen, ce qui peut réduire dans une certaine mesure la pression concurrentielle sur les entreprises européennes.
Xu estime que la mise en œuvre étape par étape de la loi sur l'IA peut être due à deux raisons. D'une part, l'intelligence artificielle est un domaine de réglementation en évolution rapide. Il existe encore une grande incertitude quant à la manière de réagir aux changements technologiques et industriels après l'entrée en vigueur de la loi. Il est donc nécessaire de prévoir un certain temps pour l'application de la loi. l'industrie pour permettre aux entreprises de revoir leurs propres parcours techniques et modèles économiques. D'autre part, la « loi IA » est une règle de gouvernance collaborative. Pour que les lois soient traduites en langage technique et en normes industrielles, il est nécessaire de coopérer avec les autorités de régulation et les entreprises, ce qui nécessite également de réserver du temps pour la communication sur les risques, la communication et la coordination entre les entreprises et les autorités de régulation.
Selon Wu Shenkuo, professeur de doctorat à la Faculté de droit de l'Université normale de Pékin et directeur adjoint du Centre de recherche de la China Internet Society, la « Loi sur l'IA » établit des exigences en matière de système de réglementation, la transparence et l'équité étant la logique fondamentale de la recherche, du développement et de l'application industrielle de intelligence artificielle. Cela aura un impact à long terme sur l’orientation de la recherche et du développement et sur les applications commerciales de l’IA, et modifiera également la configuration du marché européen.
Alors, quelles implications les deux outils réglementaires clés conçus dans la loi sur l’IA apporteront-ils aux législateurs d’autres pays ?
La structure réglementaire globale de la « Loi sur l'IA » s'articule autour de quatre catégories de niveaux de risque allant de élevé à faible pour les applications d'intelligence artificielle, semblables à une « pyramide des risques », avec des mécanismes de prévention des risques correspondants établis respectivement.
Selon l’impact potentiel de l’intelligence artificielle sur les utilisateurs et la société, elle se divise en quatre niveaux :Catégorie de risque inacceptable, catégorie de risque élevé, catégorie de risque limité, catégorie de risque minimal.
Au niveau le plus extrême, les systèmes ou applications d'intelligence artificielle qui présentent des risques inacceptables, tels que ceux considérés comme constituant une menace évidente pour la sécurité, la vie quotidienne et les droits fondamentaux des personnes, seront totalement interdits d'utilisation.Les développeurs de tels systèmes d’IA se verront infliger une amende pouvant aller jusqu’à 6 % du chiffre d’affaires mondial de l’exercice précédent.(Pour plus de détails, voir :Percées dans la législation sur l'IA en Chine et en Europe au cours de la même période : définir un « feu tricolore » pour ChatGPT ?)
Quatre niveaux de risque pour l'intelligence artificielle, source : site officiel de la Commission européenne
Pour les systèmes d'intelligence artificielle à haut risque, la « Loi sur l'IA » stipule un système complet de gestion des risques couvrant l'entrée sur le marché avant et après l'entrée sur le marché. Avant d'entrer sur le marché, les entreprises doivent établir et maintenir un système de gestion des risques, assurer la gouvernance des données, développer et mettre à jour la documentation technique et fournir toutes les informations nécessaires aux autorités de régulation, etc.
Wu Shenkuo a présenté qu'en tant que méthodologie de base, la classification et la classification des risques seront reflétées à des degrés divers dans la législation des différents pays et régions. Son importance importante et sa valeur institutionnelle résident dans la garantie de la proportionnalité de la surveillance. Tout en répondant aux préoccupations réglementaires fondamentales et aux exigences stratégiques, elle offre également l’espace de développement flexible nécessaire au développement de l’IA.
En Chine, le système de classification et de notation axé sur les risques se reflète également dans la réglementation des algorithmes et de l’IA générative. En septembre 2021, l'Administration chinoise du cyberespace a publié les « Avis directeurs sur le renforcement de la gestion globale des algorithmes des services d'information sur Internet », qui proposaient clairement de promouvoir la gestion hiérarchique et classifiée de la sécurité des algorithmes, d'identifier efficacement les algorithmes à haut risque et de mettre en œuvre des algorithmes précis. gouvernance.En juillet 2023, les « Mesures provisoires pour la gestion des services d'intelligence artificielle générative » publiées par l'Administration chinoise du cyberespace et d'autres départements ont également proposé de mettre en œuvre une supervision inclusive, prudente, classifiée et hiérarchique des services d'intelligence artificielle générative.
Ning Xuanfeng estime que la stratégie de classification des risques est basée sur des besoins réglementaires réalistes pour la technologie de l'IA sans pleinement comprendre les risques sociaux pouvant être causés par la technologie de l'IA.Stratégie réglementaire progressiste.
Licensing estime que la classification et le classement signifient que les autorités de régulation doivent allouer les ressources de régulation selon une certaine proportion. À l’avenir, l’IA sera intégrée dans des milliers d’industries comme les logiciels Office.La classification hiérarchique devrait rester l’une des idées de base de la supervision de l’IA.Cependant, la classification et le classement actuels basés sur les risques devraient être abandonnés car ils ne voient que les risques statiques de l’IA mais pas les avantages dynamiques. Par exemple, les systèmes d’IA à haut risque sont souvent synonymes de rendements élevés.
La classification hiérarchique de la « Loi sur l'IA » est différente de la logique de classification hiérarchique existante en Chine. Introduction aux licences, classification en anglais est un mot - classification. Mais en Chine, la classification et le classement sont deux concepts : « classification » et « classement ». Ce qui est plus spécial, c’est qu’avec l’avènement de l’intelligence artificielle générale, la méthode de classification classique des scénarios d’application de l’IA dans les politiques précédentes de la Chine devra peut-être être ajustée. Par exemple, le « Règlement sur la gestion des recommandations d'algorithmes de services d'information Internet » réglemente cinq catégories principales de « technologies de recommandation d'algorithmes d'application », y compris les services d'information tels que la génération et la synthèse, la poussée personnalisée, le tri et la sélection, la récupération et le filtrage, ainsi que la planification et la décision. fabrication.Cependant, l’IA générative ne peut plus suivre cette idée et les grands modèles peuvent être appliqués dans tous les domaines.
Introduction aux licences,En cas d'ajustement de classification, les autorités de régulation peuvent toujours procéder à une gestion hiérarchique de l'intelligence artificielle. La Chine adopte une classification basée sur le degré d’impact de l’IA.Par exemple, les « Mesures provisoires pour la gestion des services d'intelligence artificielle générative »Les services d'intelligence artificielle générative qui fournissent des attributs d'opinion publique ou des capacités de mobilisation sociale sont classés et notés.Ce type de fournisseur de services a proposé des exigences en matière de dépôt d'algorithmes et de dépôt de grands modèles. La logique est que certains systèmes d’IA ont un impact significatif sur le pays et l’ordre social, de sorte que les autorités de régulation prendront des mesures réglementaires différentes. Cependant, Xu Xu estime que cela ne signifie pas que la législation chinoise sur l’IA maintiendra les mêmes mesures réglementaires à l’avenir, mais il est prévisible queLes autorités de régulation utiliseront divers facteurs pour déterminer l’impact des systèmes d’IA et définiront les mesures réglementaires correspondantes.
Zhang Linghan a également dit :À mesure que l'IA générative devient plus polyvalente, le système de classification chinois doit être ajusté en fonction du développement de la technologie.
Dans la continuité du projet précédent, la « Loi sur l'IA » introduit le système de « bac à sable réglementaire » courant dans la surveillance des technologies financières.
Le soi-disant « bac à sable réglementaire » vise à créer un espace sûr supervisé et contrôlable, permettant aux entreprises, en particulier aux petites et moyennes entreprises et aux start-ups, d'entrer dans le « bac à sable » et de participer activement au développement et au développement d'IA innovantes. systèmes sous la stricte supervision des agences de réglementation. Testez puis lancez ces systèmes d’IA sur le marché des services. Si des risques majeurs sont découverts au cours du développement et des tests, les risques doivent être atténués immédiatement. Si les risques ne peuvent pas être atténués ou contrôlés, les tests ouverts doivent être suspendus.
Le « Regulatory Sandbox » a été créé pour la première fois par la Financial Conduct Authority (FCA) britannique en 2015. Selon Li, le système de « bac à sable réglementaire » est une initiative de l'UE visant à soutenir l'innovation, visant à réaliser l'innovation technologique sous des risques contrôlables. Le « bac à sable réglementaire » peut créer un environnement contrôlable, prendre des mesures réglementaires spécifiques pour certaines applications d'IA et donner à l'IA potentiellement risquée un espace d'essais et d'erreurs.
Wu Shenkuo a également déclaré que le « bac à sable réglementaire » est l'une des caractéristiques de la « loi sur l'IA ». Face aux nouvelles technologies et applications telles que l’IA, ils peuvent aider ou promouvoir un dialogue continu entre les régulateurs de l’UE et les personnes réglementées.pour aborder l’équilibre dynamique entre les développements technologiques et les préoccupations réglementaires.
Actuellement, plusieurs États membres de l’UE testent un système de « bac à sable réglementaire » dans le domaine de l’IA.
La France commencera à piloter le système de « bac à sable réglementaire » en 2022, en se concentrant surIndustrie de l'éducation, 5 entreprises participent actuellement au projet pilote.
En mai 2024, l'Espagne a sollicité des avis sur la mise en place d'un « bac à sable réglementaire ». L'Espagne est claireLes systèmes d'intelligence artificielle à haut risque, l'intelligence artificielle générale et les modèles de base dans huit domaines, dont la biométrie, les infrastructures critiques, ainsi que l'éducation et la formation, sont applicables au système « bac à sable réglementaire ».Il fournit également des réglementations plus détaillées sur l'accès au projet, la soumission des documents, la gestion des risques et les conditions de sortie.
La Norvège et la Suisse ont également des projets pilotes similaires. Par exemple, le fournisseur de transports publics norvégien Ruter a mené une évaluation des risques sur son algorithme d'IA de recommandation de voyage en ligne basé sur le « bac à sable réglementaire ». Les cinq entreprises pilotes en Suisse participent respectivement àMachines agricoles sans pilote, drones, traduction automatique, correction des erreurs de fonctionnement et planification du stationnement, etc.recherche et développement dans le domaine.
En Chine, le système du « bac à sable réglementaire » est également appliqué à la surveillance des technologies financières. Le 31 janvier 2019, dans la « Réponse au plan de travail pilote complet visant à promouvoir de manière globale l'expansion et l'ouverture du secteur des services de Pékin », le Conseil d'État a convenu que Pékin devrait explorer le mécanisme du « bac à sable réglementaire » sur la base de principes juridiques. conformité. Le 5 décembre 2019, la Banque populaire de Chine a approuvé un soutien à Pékin pour qu'il prenne l'initiative de lancer un projet pilote à l'échelle nationale pour la supervision de l'innovation dans les technologies financières et explore une version chinoise du « bac à sable réglementaire ».
Du point de vue de Licensing, le « bac à sable réglementaire » n’est pas seulement une innovation technologique, mais également une innovation réglementaire. Ce système mène en réalité des expériences sous deux aspects : l’un est la gouvernance expérimentale des réglementés ; l’autre permet aux régulateurs de tester la rationalité et la nécessité des règles réglementaires dans un bac à sable.Un « bac à sable réglementaire » mature est une innovation collaborative entre le régulateur et le réglementé, c'est-à-dire que le régulateur ajuste ses règles réglementaires en fonction des commentaires du « bac à sable », et le réglementé est également testé et vérifié sur la base du « bac à sable ». situation, pour ajuster leur modèle commercial et l’orientation du développement technologique.
Mais Zhang Linghan a rappelé :Le « bac à sable réglementaire » impose des exigences plus élevées aux capacités de suivi et d’évaluation des agences de réglementation, et ses effets réels et son impact sur l’industrie restent à observer en permanence.
02
L’impact mondial reste à voir
L'UE a toujours été à l'avant-garde de la législation numérique et tente d'exporter des normes dans le monde grâce à « l'effet Bruxelles ».
L'« effet Bruxelles » fait référence au fait que, dans le processus de supervision par l'UE de son propre marché unique intérieur, les entreprises multinationales ont accepté ces normes en s'y conformant et ont progressivement fait des normes européennes des normes mondiales. La mise en œuvre du RGPD en est un bon exemple. Le RGPD désigne les lignes directrices et politiques régissant la confidentialité des données personnelles dans l'Union européenne, entrées en vigueur le 25 mai 2018. Les entreprises technologiques multinationales mettent en œuvre la conformité du traitement des données sur la base des exigences du RGPD et utilisent cette norme pour le traitement des données en dehors de l'UE, faisant de la norme de l'UE une norme mondiale.
Zhang Linghan estime qu'en tant que marché important pour l'IA, l'industrie européenne de l'IA est relativement faible. La « loi sur l'IA » tente de reproduire le cadre de gouvernance mondiale du RGPD et d'étendre davantage « l'effet Bruxelles », gagnant ainsi une monnaie d'échange pour la concurrence industrielle mondiale. et la redistribution des bénéfices. À cet égard, le monde observe si la « loi sur l’IA » peut répondre aux attentes.
Il existe une condition préalable à la mise en œuvre de la « loi sur l'IA ». Les entreprises technologiques locales de l'UE et les entreprises technologiques multinationales sont prêtes à relever les défis de conformité.
Cecilia Bonefield-Dahl, directrice générale de Digital Europe, a averti que cette approche conduisait à une mauvaise réglementation,Cela entravera à l’avenir la concurrence entre l’Europe et les États-Unis dans le domaine des nouvelles entreprises d’intelligence artificielle.« Les coûts de conformité supplémentaires pour les entreprises européennes ont encore réduit nos bénéfices », a-t-elle déclaré."Pendant que le reste du monde embauche des programmeurs, nous embauchons des avocats."
Zhang Linghan a déclaré que l'entrée en vigueur de la « Loi sur l'IA » a posé des défis multidimensionnels aux entreprises technologiques opérant en Europe, et qu'elle a établi des réglementations correspondantes dans tous les aspects du développement, des tests, du déploiement et de l'application de produits d'IA. Selon elle, les entreprises technologiques doivent non seulement augmenter leurs investissements dans les coûts de conformité afin de garantir la mise en place d'un système de conformité conforme à l'UE, mais elles doivent également continuer à évaluer et à surveiller le marché cible et à apporter les ajustements nécessaires dans la recherche et processus de développement et conception fonctionnelle pour garantir le respect des normes élevées de sécurité et de transparence requises par la loi sur l'IA.
Ning Xuanfeng estime que la chose la plus intuitive est qu'en ce qui concerne les fournisseurs de systèmes d'IA à haut risque, l'impact de la « loi sur l'IA » se reflétera au moins dans les coûts de conformité des entités concernées pour s'adapter aux exigences réglementaires pertinentes ; en d’autres termes, les entités concernées pourraient même ne plus être en mesure de continuer à fournir les systèmes pertinents, ce qui pourrait encore entraîner des pertes économiques correspondantes.
Alors, comment les entreprises chinoises d’IA devraient-elles réagir ?
Zhang Linghan a suggéré que dansNiveau de conformité, les entreprises chinoises devraient d'abord évaluer de manière globale les exigences de la « Loi sur l'IA », ajuster rapidement et dynamiquement leurs stratégies de conformité et établir des systèmes internes de gestion de la conformité ; deuxièmement, elles devraient améliorer leurs capacités d'innovation technologique et cibler les caractéristiques techniques et les fonctions des produits des systèmes d'IA ; .Élaborer des plans de risque pertinents;enfin,La coopération et les échanges internationaux doivent être renforcés,Portez une attention particulière aux législations étrangères et à l’évolution de l’application des lois afin d’améliorer la compétitivité internationale.
Permit estime que l'UE ne parviendra pas à reproduire l'effet « Bruxelles » du RGPD. Il y a trois conditions préalables au succès du RGPD : la première est une large juridiction, la deuxième des exigences légales élevées et la troisième des amendes élevées. À l'heure actuelle, bien que la loi sur l'IA soit conforme au RGPD sur ces trois aspects, une différence importante est que les données doivent traverser les frontières et que les systèmes d'intelligence artificielle peuvent être divisés. La fluidité des données permet aux régulateurs d’avoir indirectement un impact mondial en contrôlant les entrées et sorties de données dans l’UE, mais cela ne peut pas se refléter dans la réglementation de l’IA.Les entreprises d’IA peuvent établir complètement des marchés divisibles et n’ont pas besoin de se conformer aux règles de l’UE lorsqu’elles développent l’industrie de l’IA en dehors de l’UE.
Pour rappel en matière de licence, il est important de noter qu'il existe deux exemptions dans la loi sur l'IA : L'une est l'exemption pour la recherche et le développement de l'IA. De nombreuses entreprises peuvent faire de la recherche et du développement dans l’UE et fournir des services en dehors de l’UE. La seconde est l’exemption open source, qui ne restreint que certains systèmes d’IA fermés. Par exemple, Google peut influencer indirectement les produits et services sur le marché de l’UE grâce à l’intelligence artificielle open source.
Xu a également souligné que le RGPD accorde aux individus des droits très forts, et que ces droits privés ont incité les individus et les ONG à engager des poursuites judiciaires pour obtenir une supervision par le biais de litiges. La « Loi sur l'IA » stipule essentiellement la responsabilité du fait des produits des systèmes d'IA.Les individus ne bénéficient pas de nouveaux droits, leur application ne peut donc reposer que sur l’application administrative de l’UE. Sur la base du principe de souveraineté, l’application pertinente ne peut en réalité être effectuée qu’au sein de l’UE, ce qui pose également un défi à l’influence mondiale de l’IA. Loi.
Cependant, Sun Yuanzhao, juriste aux États-Unis, estime que les exigences de conformité de la « loi sur l'IA » peuvent causer un certain degré de désagréments aux opérations des entreprises, mais c'est le cas de toutes les exigences de conformité. D'un point de vue positif, cela peut éviter dans une certaine mesure des accidents de sécurité majeurs, et si un accident se produit malheureusement, nous pouvons réfléchir dans les plus brefs délais pour trouver ensemble le problème et la solution. Cela aidera également à établir un plan. la confiance de la société et promouvoir le développement sain et ordonné de l'ensemble du marché.