Nachricht

Kann das EU-Gesetz zur künstlichen Intelligenz wirksam werden und globale Regeln leiten?

2024-08-13

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Die EU hofft, mit künstlicher Intelligenz die Führung bei der Gesetzgebung und Führung globaler Vorschriften zu übernehmen. Sie stößt jedoch auf breite Kritik, weil sie in der Anfangsphase der industriellen Entwicklung schnell strenge Regulierungsmaßnahmen einführt zu sehen.

Die Anzahl der Wörter in diesem Artikel beträgt 6256 und die Lesezeit beträgt etwa 18Minute

Text |Finanzielles E-Recht Fan Shuo

Bearbeiten |Guo Liqin

Die EU ist erneut weltweit führend in der Geschwindigkeit der Gesetzgebung, dieses Mal im Bereich der künstlichen Intelligenz, der weiterhin heiß begehrt ist. Allerdings ist noch unklar, wie diese vagen Begriffe letztendlich umgesetzt werden.

Im August trat das weltweit erste Gesetz zur umfassenden Regelung künstlicher Intelligenz, das Europäische Gesetz über künstliche Intelligenz (im Folgenden „KI-Gesetz“), offiziell in Kraft.

Was am meisten Aufmerksamkeit erregt hat, ist, dass die Bestimmungen des KI-Gesetzes schrittweise umgesetzt werden. Der 1. August ist das Datum, an dem dieses Gesetz in Kraft tritt, es sind jedoch nur einige seiner Bestimmungen in Kraft. Dem Zeitplan zufolge gelten die im Gesetzentwurf verbotenen Praktiken sechs Monate nach seinem Inkrafttreten; die entsprechenden Verpflichtungen und Regeln für allgemeine künstliche Intelligenz gelten 12 Monate nach dem 1. August, nach 24 Monaten wird der Gesetzentwurf vollständig anwendbar sein, aber einige Regeln für Hochrisiko-KI-Systeme beginnt nach 36 Monaten zu gelten.

Dieser Satz umfassender Regulierungsregeln für KI, der als der „strengste“ in der Geschichte bekannt ist, umfasst alle Unternehmen in der KI-Industriekette im Rahmen der Aufsicht, einschließlich Anbieter von KI-Systemen, Benutzer, Importeure und Händler, die Verbindungen mit der KI haben EU-Markt. Händler und Produkthersteller usw.

Das „KI-Gesetz“ erweiterte auch die Regulierungsinstrumente: Es führte nicht nur ein risikoorientiertes hierarchisches Managementmodell ein, sondern konzipierte auch eine „Regulierungssandbox“, um die Compliance-Belastung für kleine und mittlere Unternehmen und Start-ups zu verringern. Auch scharfe „Zähne“ erregten Aufmerksamkeit:Bei Verstößen gegen entsprechende Bestimmungen können Unternehmen mit einer Geldstrafe von bis zu 35 Millionen Euro (ca. 270 Millionen Yuan) oder 7 % des weltweiten Jahresumsatzes im vorangegangenen Geschäftsjahr (je nachdem, welcher Betrag höher ist) rechnen.

Von Beginn der Formulierung des KI-Gesetzes an hoffte die EU, damit die Regeln im Bereich der KI voranzutreiben.

Das „KI-Gesetz“ wurde im April 2021 von EU-Chefin für digitale Angelegenheiten Margaret Vestager angekündigt. Damals sagte sie: „Die EU übernimmt die Führung bei der Entwicklung neuer globaler Normen, um sicherzustellen, dass künstliche Intelligenz vertrauenswürdig ist.“ Der Binnenmarktkommissar der Kommission sagte in den sozialen Medien auch, dass das Gesetz „ein wichtiger Leitfaden sein wird, um Start-ups und Forschern aus der EU dabei zu helfen, im globalen Wettbewerb im Bereich der KI an der Spitze zu stehen.“

Allerdings hat auch die schnelle Einführung des KI-Gesetzes, als die Entwicklung der KI-Branche noch in den Kinderschuhen steckte, breite Kritik hervorgerufen.Gegner argumentieren, dass übereilte Versuche, die zugrunde liegenden Modelle zu regulieren, den Einsatz der Technologie selbst einschränken würden.

Xu einschlägigen Rechtsvorschriften.

Nach dem Studium der Bestimmungen sagte Zhang Linghan, Professor am Institut für Datenrecht der China University of Political Science and Law und chinesisches Mitglied des hochrangigen Beratungsgremiums der Vereinten Nationen für künstliche Intelligenz, dass es zwar ein „KI-Gesetz“ gebe Bekanntlich sind die EU-Vorschriften streng, die begrenzte Umsetzung regulatorischer Maßnahmen und innovativer Regulierungsinstrumente bieten jedoch den notwendigen Raum für flexible EntwicklungEs erhöht auch die Compliance-Kosten für Nicht-EU-Unternehmen.

Ning Zeit. Für den chinesischen Gesetzgeber bedeutet dies, dass an hochriskanten KI-Systemen während des gesamten Prozesses ihrer Inbetriebnahme mehrere relevante Einheiten beteiligt sind. Das KI-Gesetz legt Compliance-Anforderungen fest, die auf dem Grad der Beteiligung relevanter Einheiten basieren, und befasst sich mit Verstößen durch relevante Einheiten Es wurden Bußgelder verhängt. Nach Ansicht von Ning Wenn China in Zukunft KI gesetzlich vorschreibt, kann es die Einrichtung eines Verantwortungsmechanismus in Betracht ziehen, der alle Parteien in der Wertschöpfungskette des KI-Systems abdeckt, was bei der Abgrenzung der Verantwortungsgrenzen jeder Partei hilfreicher sein wird und dadurch Forschung und Entwicklung oder Servicemotivation stimuliert.

01

Aufklärung durch EU-Gesetzgebung

Die EU hat während des Gesetzgebungsprozesses ausführliche Diskussionen geführt, in denen die Anliegen aller Parteien berücksichtigt wurden. Diese Inhalte sowie die Ausrichtung und Denkweise der gesamten Gesetzgebung haben auch wertvolle Hinweise auf andere Länder oder Regionen gebracht.

Die schnelle Gesetzgebung der EU stößt international auf Kritik.

Medienberichten zufolge führten die EU-Gesetzgeber im Dezember 2023 Marathonverhandlungen, um die Regeln zu verabschieden. Kritiker sagen jedoch, dass die Regeln nicht weit genug gehen und den Regulierungsbehörden wichtige Details entgehen, die Unternehmen dringend benötigen, um das Gesetz durchzusetzen. Das schätzen einige ProfisDie EU benötigt 60 bis 70 Sekundärgesetze, um die Umsetzung des KI-Gesetzes zu unterstützen.

Kai Zena, ein Assistent im Europäischen Parlament, der an der Ausarbeitung des KI-Gesetzes beteiligt war, gab zu:„Das Gesetz ist ziemlich vage. Der Zeitdruck lässt viele Dinge offen. Die Regulierungsbehörden können sich in diesen Dingen nicht einigen, daher ist es einfacher, Kompromisse einzugehen.“

Xu sagte, der größte Kritikpunkt am KI-Gesetz sei, dass es auf einem risikobasierten Ansatz beruhe und es an der Stärkung des Einzelnen mangele. Darüber hinaus wird die künftige Umsetzung des KI-Gesetzes auch mit zahlreichen Koordinierungsproblemen mit anderen Gesetzen und Vorschriften konfrontiert sein. Beispielsweise wird die Abstimmung mit gesetzlichen Regelungen wie der Datenschutz-Grundverordnung (DSGVO), dem Digital Markets Act (DMA) und dem Data Governance Act (DGA) viel Ärger bereiten. Darüber hinaus muss das KI-Gesetz als allgemeines Gesetz Umsetzungsfragen in mehreren Bereichen berücksichtigen, darunter Finanzen, medizinische Versorgung, Transport und andere Bereiche.

„Tatsächlich könnte es mehr Probleme verursachen als lösen“, sagte Xu.

Obwohl es auf Kritik stößt, wurden die gesetzgeberischen Ideen des „KI-Gesetzes“ bestätigt, vor allem weil es den gesamten Entwicklungsprozess der Branche berücksichtigt.

Zhang Linghan betonte:Obwohl es als das strengste KI-Regulierungsgesetz der Geschichte gilt, sind die Regulierungsmaßnahmen des „KI-Gesetzes“ tatsächlich begrenzt, und bei seiner Formulierung wurde auch davon ausgegangen, dass es die Gesamtentwicklung der EU-KI-Industrie fördern soll.

Speziell,Zhang Linghan glaubt zunächst, dassDas KI-Gesetz sieht Ausnahmen für die Entwicklung und Nutzung einiger KI-Systeme vor.Dazu gehören Systeme, die speziell für militärische, Verteidigungs- oder nationale Sicherheitszwecke entwickelt wurden, Systeme, die speziell für die wissenschaftliche Forschung entwickelt wurden, sowie kostenlose und Open-Source-Systeme für künstliche Intelligenz.

Zweitens schlägt das KI-Gesetz eine Reihe unterstützender Maßnahmen vor.Reduzierung der administrativen und finanziellen Belastung für EU-Unternehmen, insbesondere für kleine und mittlere Unternehmen.

Drittens sind es der stufenweise Compliance-Zeitplan des „KI-Gesetzes“ und das dadurch geschaffene regulatorische Sandbox-SystemEs bietet eine gewisse Zeit und Raum für die Entwicklung der EU-KI-Industrie.

Viertens wird die extraterritoriale Wirkung des KI-GesetzesErhöhte Compliance-Kosten für Nicht-EU-Unternehmen, was die Bereitschaft von Nicht-EU-Unternehmen, den europäischen Markt zu erweitern, einschränken wird, was den Wettbewerbsdruck auf EU-Unternehmen in gewissem Maße verringern kann.

Xu glaubt, dass die schrittweise Umsetzung des KI-Gesetzes zwei Gründe haben könnte. Einerseits ist künstliche Intelligenz ein sich schnell entwickelndes Regulierungsgebiet. Es besteht immer noch große Unsicherheit darüber, wie auf Änderungen in Technologie und Industrie nach Inkrafttreten des Gesetzes reagiert werden soll Die Industrie soll es Unternehmen ermöglichen, ihre eigenen technischen Wege und Geschäftsmodelle zu überprüfen. Andererseits ist das „KI-Gesetz“ eine Regel der kollaborativen Governance. Damit Gesetze in Fachsprache und Industriestandards übersetzt werden können, ist die Zusammenarbeit mit Regulierungsbehörden und Unternehmen erforderlich, was auch die Bereitstellung von Zeit für die Risikokommunikation, Kommunikation und Koordination zwischen Unternehmen und Regulierungsbehörden erfordert.

Laut Wu Shenkuo, Doktorand an der Beijing Normal University Law School und stellvertretender Direktor des China Internet Society Research Center, legt das „KI-Gesetz“ regulatorische Systemanforderungen mit Transparenz und Fairness als Kernlogik für Forschung und Entwicklung sowie industrielle Anwendung fest künstliche Intelligenz. Dies wird langfristige Auswirkungen auf die Forschungs- und Entwicklungsrichtung und die Marktanwendung von KI haben und auch das Marktlayout Europas verändern.

Welche Auswirkungen werden die beiden im KI-Gesetz vorgesehenen zentralen Regulierungsinstrumente also für Gesetzgeber in anderen Ländern haben?

Tool Eins: Risikoklassifizierungsmanagement

Die gesamte Regulierungsstruktur des „KI-Gesetzes“ dreht sich um vier Kategorien von Risikoniveaus von hoch bis niedrig für Anwendungen der künstlichen Intelligenz, ähnlich einer „Risikopyramide“, mit jeweils entsprechenden Mechanismen zur Risikoprävention.

Entsprechend der potenziellen Auswirkungen künstlicher Intelligenz auf Nutzer und Gesellschaft wird diese in vier Ebenen unterteilt:Kategorie „inakzeptables Risiko“, Kategorie „hohes Risiko“, Kategorie „begrenztes Risiko“, Kategorie „minimales Risiko“.

Im extremsten Fall werden Systeme oder Anwendungen der künstlichen Intelligenz, die inakzeptable Risiken bergen, beispielsweise solche, die eine eindeutige Bedrohung für die Sicherheit, das tägliche Leben und die Grundrechte der Menschen darstellen, vollständig von der Nutzung ausgeschlossen.Entwickler solcher KI-Systeme werden mit einer Geldstrafe von bis zu 6 % des weltweiten Umsatzes im vorangegangenen Geschäftsjahr belegt.(Einzelheiten finden Sie unter:Durchbrüche in der KI-Gesetzgebung in China und Europa im gleichen Zeitraum: Eine „Ampel“ für ChatGPT setzen?

Vier Risikostufen künstlicher Intelligenz, Quelle: Offizielle Website der Europäischen Kommission

Für Systeme der künstlichen Intelligenz mit hohem Risiko schreibt das „KI-Gesetz“ ein prozessübergreifendes Risikomanagementsystem vor, das den Markteintritt vor und nach dem Markteintritt abdeckt. Vor dem Markteintritt müssen Unternehmen ein Risikomanagementsystem einrichten und aufrechterhalten, eine Datenverwaltung durchführen, technische Dokumentation entwickeln und aktualisieren sowie den Regulierungsbehörden usw. alle erforderlichen Informationen zur Verfügung stellen.

Wu Shenkuo stellte vor, dass sich die Risikoklassifizierung und -klassifizierung als grundlegende Methodik in unterschiedlichem Maße in der Gesetzgebung verschiedener Länder und Regionen widerspiegeln werde. Ihre wichtige Bedeutung und ihr institutioneller Wert liegen in der Gewährleistung der Verhältnismäßigkeit der Aufsicht – sie erfüllt zwar zentrale regulatorische Anliegen und strategische Anforderungen, bietet aber auch den notwendigen flexiblen Entwicklungsraum für die Entwicklung von KI.

In China spiegelt sich das risikoorientierte Klassifizierungs- und Bewertungssystem auch in der Regulierung von Algorithmen und generativer KI wider. Im September 2021 veröffentlichte die Cyberspace Administration of China die „Guiding Opinions on Strengthening the Comprehensive Management of Internet Information Service Algorithms“, in denen eindeutig vorgeschlagen wurde, das hierarchische und klassifizierte Sicherheitsmanagement von Algorithmen zu fördern, Algorithmen mit hohem Risiko effektiv zu identifizieren und präzise umzusetzen Regierungsführung.Im Juli 2023 schlugen die von der Cyberspace Administration of China und anderen Abteilungen herausgegebenen „Interim Measures for the Management of Generative Artificial Intelligence Services“ außerdem vor, eine umfassende, umsichtige und klassifizierte und hierarchische Überwachung generativer künstlicher Intelligenzdienste einzuführen.

Ning Xuanfeng glaubt, dass die Risikoklassifizierungsstrategie auf den realistischen regulatorischen Anforderungen für KI-Technologie basiert, ohne die sozialen Risiken, die durch KI-Technologie verursacht werden können, vollständig zu verstehen.Fortschrittliche Regulierungsstrategie.

Die Lizenzierung ist der Ansicht, dass Klassifizierung und Einstufung bedeuten, dass die Regulierungsbehörden Regulierungsressourcen entsprechend einem bestimmten Verhältnis zuweisen müssen. In Zukunft wird KI in Tausenden von Branchen eingebettet sein, beispielsweise in der Office-SoftwareDie hierarchische Klassifizierung sollte nach wie vor eine der Grundideen für die KI-Überwachung sein.Allerdings sollte die bisherige risikobasierte Klassifizierung und Einstufung aufgegeben werden, da sie nur die statischen Risiken von KI sieht, nicht aber den dynamischen Nutzen. Beispielsweise bedeuten risikoreiche KI-Systeme häufig hohe Renditen.

Die hierarchische Klassifizierung im „KI-Gesetz“ unterscheidet sich von Chinas bestehender hierarchischer Klassifizierungslogik. Lizenzeinführung, Klassifizierung im Englischen ist ein Wort - Klassifizierung. Aber in China sind Klassifizierung und Einstufung zwei Konzepte: „Klassifizierung“ und „Einstufung“. Das Besondere ist, dass mit dem Aufkommen allgemeiner künstlicher Intelligenz möglicherweise die klassische Klassifizierungsmethode von KI-Anwendungsszenarien in der bisherigen Politik Chinas angepasst werden muss. Beispielsweise regeln die „Internet Information Service Algorithm Recommendation Management Regulations“ fünf Hauptkategorien von „Anwendungsalgorithmus-Empfehlungstechnologien“, darunter Informationsdienste wie Generierung und Synthese, personalisierter Push, Sortierung und Auswahl, Abruf und Filterung sowie Planung und Entscheidungsfindung. Herstellung.Generative KI kann dieser Idee jedoch nicht mehr folgen und große Modelle können in allen Bereichen angewendet werden.

Lizenzeinführung,Im Falle einer Klassifizierungsanpassung können Regulierungsbehörden weiterhin eine hierarchische Verwaltung der künstlichen Intelligenz durchführen. China führt eine Klassifizierung ein, die auf dem Ausmaß der KI-Auswirkungen basiert.Beispielsweise die „Übergangsmaßnahmen für das Management generativer künstlicher Intelligenzdienste“Generative künstliche Intelligenzdienste, die Merkmale der öffentlichen Meinung oder Möglichkeiten zur sozialen Mobilisierung bereitstellen, werden klassifiziert und bewertet.Diese Art von Dienstleistern hat Anforderungen für die Einreichung von Algorithmen und großen Modellen gestellt. Die Logik besteht darin, dass einige KI-Systeme erhebliche Auswirkungen auf die Landes- und Gesellschaftsordnung haben, sodass die Regulierungsbehörden unterschiedliche Regulierungsmaßnahmen ergreifen werden. Allerdings ist XuRegulierungsbehörden werden verschiedene Faktoren nutzen, um die Auswirkungen von KI-Systemen zu bestimmen und entsprechende Regulierungsmaßnahmen festzulegen.

Zhang Linghan sagte auch:Da generative KI immer vielseitiger wird, muss Chinas Klassifizierungssystem rechtzeitig an die Entwicklung der Technologie angepasst werden.

Tool 2: „Regulatory Sandbox“-System

Als Fortsetzung des vorherigen Entwurfs führt das „KI-Gesetz“ das in der Finanztechnologieaufsicht übliche „Regulatory Sandbox“-System ein.

Die sogenannte „Regulierungssandbox“ soll einen überwachten und kontrollierbaren sicheren Raum schaffen, der es Unternehmen, insbesondere kleinen und mittleren Unternehmen sowie Start-ups, ermöglicht, in die „Sandbox“ einzusteigen und sich aktiv an der Entwicklung und Weiterentwicklung innovativer KI zu beteiligen Systeme unter strenger Aufsicht von Regulierungsbehörden testen und dann diese KI-Systeme auf den Dienstleistungsmarkt bringen. Wenn während der Entwicklung und des Testens größere Risiken entdeckt werden, sollten die Risiken sofort gemindert werden. Wenn die Risiken nicht gemindert oder kontrolliert werden können, sollten offene Tests ausgesetzt werden.

Die „Regulatory Sandbox“ wurde erstmals 2015 von der britischen Financial Conduct Authority (FCA) ins Leben gerufen. Laut Li handelt es sich bei dem „Regulatory Sandbox“-System um eine EU-Initiative zur Innovationsförderung, die darauf abzielt, technologische Innovationen unter kontrollierbaren Risiken zu erreichen. Die „Regulierungssandbox“ kann eine kontrollierbare Umgebung schaffen, spezifische Regulierungsmaßnahmen für einige KI-Anwendungen ergreifen und potenziell riskanter KI Raum für Versuch und Irrtum geben.

Wu Shenkuo sagte auch, dass die „regulatorische Sandbox“ eines der Merkmale des „KI-Gesetzes“ sei. Angesichts neuer Technologien und Anwendungen wie KI können sie den kontinuierlichen Dialog zwischen EU-Regulierungsbehörden und regulierten Personen unterstützen oder fördern.um das dynamische Gleichgewicht zwischen technologischen Entwicklungen und regulatorischen Bedenken anzugehen.

Derzeit testen mehrere EU-Mitgliedsstaaten ein „Regulatory Sandbox“-System im Bereich KI.

Frankreich wird im Jahr 2022 mit der Pilotierung des „Regulatory Sandbox“-Systems beginnen und sich dabei auf Folgendes konzentrieren:BildungsbrancheDerzeit nehmen 5 Unternehmen am Pilotprojekt teil.

Im Mai 2024 holte Spanien Stellungnahmen zur Umsetzung einer „regulatorischen Sandbox“ ein. Spanien ist klarHochriskante künstliche Intelligenzsysteme, allgemeine künstliche Intelligenz und Grundmodelle in acht Bereichen, darunter Biometrie, kritische Infrastruktur sowie Bildung und Ausbildung, sind auf das „Regulatory Sandbox“-System anwendbar.Darüber hinaus enthält es detailliertere Regelungen zum Projektzugang, zur Dokumenteneinreichung, zum Risikomanagement und zu den Austrittsbedingungen.

Auch Norwegen und die Schweiz haben ähnliche Pilotprojekte. Beispielsweise führte der norwegische ÖPNV-Anbieter Ruter eine Risikobewertung seines KI-Algorithmus für Online-Reiseempfehlungen auf Basis der „regulatorischen Sandbox“ durch. Die fünf Pilotunternehmen in der Schweiz engagieren sich jeweilsUnbemannte landwirtschaftliche Maschinen, Drohnen, maschinelle Übersetzung, Korrektur von Betriebsfehlern und Parkplanung usw.Forschung und Entwicklung auf diesem Gebiet.

In China wird das „Regulatory Sandbox“-System auch in der Finanztechnologieaufsicht angewendet. Am 31. Januar 2019 stimmte der Staatsrat in der „Antwort auf den umfassenden Pilotarbeitsplan zur umfassenden Förderung der Expansion und Öffnung der Pekinger Dienstleistungsbranche“ zu, dass Peking den „Regulierungs-Sandbox“-Mechanismus unter der Prämisse rechtlicher Grundlagen prüfen sollte Einhaltung. Am 5. Dezember 2019 genehmigte die People's Bank of China die Unterstützung für Peking, die Führung bei der Einführung eines landesweiten Pilotprojekts zur Überwachung von Innovationen im Finanztechnologiebereich zu übernehmen und eine chinesische Version der „Regulierungssandbox“ zu erforschen.

Aus Sicht der Lizenzierung ist die „regulatorische Sandbox“ nicht nur eine technologische Innovation, sondern auch eine regulatorische Innovation. Dieses System führt tatsächlich Experimente in zweierlei Hinsicht durch: Zum einen ermöglicht es den Regulierungsbehörden, die Rationalität und Notwendigkeit von Regulierungsregeln innerhalb einer Sandbox zu testen.Eine ausgereifte „Regulierungssandbox“ ist eine gemeinschaftliche Innovation zwischen der Regulierungsbehörde und den Regulierten, d. Situation, um ihr Geschäftsmodell und die Richtung der Technologieentwicklung anzupassen.

Aber Zhang Linghan erinnerte daran:Die „Regulatory Sandbox“ stellt höhere Anforderungen an die Überwachungs- und Bewertungsfähigkeiten der Regulierungsbehörden, und ihre tatsächlichen Auswirkungen und Auswirkungen auf die Industrie müssen weiterhin kontinuierlich beobachtet werden.

02

Die globalen Auswirkungen bleiben abzuwarten

Die EU stand schon immer an der Spitze der digitalen Gesetzgebung und versucht, durch den „Brüssel-Effekt“ Standards in die Welt zu exportieren.

Der „Brüsseler Effekt“ bezieht sich auf die Tatsache, dass multinationale Unternehmen im Zuge der Überwachung ihres eigenen Binnenmarktes durch die EU diese Standards durch Einhaltung akzeptiert und EU-Standards nach und nach zu Weltstandards gemacht haben. Die Umsetzung der DSGVO ist ein gutes Beispiel. Bei der DSGVO handelt es sich um die Richtlinien und Richtlinien zum Schutz personenbezogener Daten in der Europäischen Union, die am 25. Mai 2018 in Kraft traten. Multinationale Technologieunternehmen implementieren die Compliance bei der Datenverarbeitung auf Grundlage der Anforderungen der DSGVO und nutzen diesen Standard für die Datenverarbeitung außerhalb der EU, wodurch der EU-Standard zu einem Weltstandard wird.

Zhang Linghan glaubt, dass die EU-eigene KI-Industrie als wichtiger Markt für KI relativ schwach ist. Das „KI-Gesetz“ versucht, den globalen Governance-Rahmen der DSGVO zu reproduzieren und den „Brüsseler Effekt“ weiter auszuweiten, um so Verhandlungsvorteile für den globalen industriellen Wettbewerb zu erlangen und Umverteilung der Vorteile. In dieser Hinsicht beobachtet die Welt, ob das „KI-Gesetz“ die Erwartungen erfüllen kann.

Es besteht eine Voraussetzung für die Umsetzung des „KI-Gesetzes“. Sowohl lokale EU-Technologieunternehmen als auch multinationale Technologieunternehmen sind bereit, Compliance-Herausforderungen anzunehmen.

Cecilia Bonefield-Dahl, Generaldirektorin von Digital Europe, warnte davor, dass dieser Ansatz zu einer schlechten Regulierung führe.Es wird künftig den Wettbewerb zwischen Europa und den USA im Bereich neuer Unternehmen für künstliche Intelligenz behindern.„Zusätzliche Compliance-Kosten für EU-Unternehmen haben unsere Gewinne weiter geschmälert“, sagte sie.„Während der Rest der Welt Programmierer einstellt, stellen wir Anwälte ein.“

Zhang Linghan sagte, dass das Inkrafttreten des „KI-Gesetzes“ mehrdimensionale Herausforderungen für in Europa tätige Technologieunternehmen mit sich gebracht habe und entsprechende Vorschriften in allen Aspekten der Entwicklung, Prüfung, Bereitstellung und Anwendung von KI-Produkten erlassen habe. Ihrer Ansicht nach müssen Technologieunternehmen nicht nur die Investitionen in die Compliance-Kosten erhöhen, um den Aufbau eines EU-konformen Compliance-Systems sicherzustellen, sondern auch den Zielmarkt weiterhin bewerten und überwachen sowie notwendige Anpassungen in der Forschung und Entwicklung vornehmen Entwicklungsprozess und funktionales Design, um sicherzustellen, dass die hohen Sicherheits- und Transparenzstandards des KI-Gesetzes erfüllt werden.

Ning Mit anderen Worten: Die betreffenden Unternehmen sind möglicherweise nicht einmal in der Lage, weiterhin relevante Systeme bereitzustellen, was zu weiteren entsprechenden wirtschaftlichen Verlusten führen kann.

Wie sollten also chinesische KI-Unternehmen reagieren?

Zhang Linghan schlug das vorKonformitätsstufeChinesische Unternehmen sollten erstens die Anforderungen des „KI-Gesetzes“ umfassend bewerten, Compliance-Strategien zeitnah und dynamisch anpassen und interne Compliance-Management-Systeme einrichten. Zweitens sollten sie ihre technologischen Innovationsfähigkeiten verbessern und auf die technischen Eigenschaften und Produktfunktionen von KI-Systemen abzielen .Entwickeln Sie relevante Risikopläne;endlich,Die internationale Zusammenarbeit und der Austausch sollten gestärkt werden,Achten Sie genau auf die Entwicklungen in der Gesetzgebung und Strafverfolgung im Ausland, um die internationale Wettbewerbsfähigkeit zu verbessern.

Permit glaubt, dass es der EU nicht gelingen wird, den „Brüsseler“-Effekt der DSGVO zu reproduzieren. Es gibt drei Voraussetzungen für den Erfolg der DSGVO: erstens eine breite Zuständigkeit, zweitens hohe gesetzliche Anforderungen und drittens hohe Bußgelder. Obwohl das KI-Gesetz derzeit in diesen drei Aspekten mit der DSGVO übereinstimmt, besteht ein wichtiger Unterschied darin, dass Daten über Grenzen hinweg fließen müssen und künstliche Intelligenzsysteme geteilt werden können. Die Fluidität der Daten ermöglicht es den Regulierungsbehörden, indirekt globale Auswirkungen zu erzielen, indem sie den Zu- und Abfluss von Daten in der EU kontrollieren. Dies kann jedoch nicht in der KI-Regulierung widergespiegelt werden.KI-Unternehmen können vollständig teilbare Märkte errichten und müssen bei der Entwicklung der KI-Industrie außerhalb der EU keine EU-Vorschriften einhalten.

Zur Erinnerung an die Lizenzierung ist es wichtig zu beachten, dass es im KI-Gesetz zwei Ausnahmen gibt: Eine davon ist die Ausnahme für KI-Forschung und -Entwicklung. Viele Unternehmen können in der EU forschen und entwickeln und Dienstleistungen außerhalb der EU anbieten. Die zweite ist die Open-Source-Ausnahme, die nur einige Closed-Source-KI-Systeme einschränkt. Beispielsweise kann Google durch Open-Source-Künstliche Intelligenz indirekt Einfluss auf Produkte und Dienstleistungen auf dem EU-Markt nehmen.

Xu wies auch darauf hin, dass die DSGVO dem Einzelnen sehr starke Rechte einräumt und diese privaten Rechte Einzelpersonen und NGOs dazu veranlasst haben, gerichtliche Klagen einzuleiten, um eine Aufsicht durch Gerichtsverfahren zu erreichen. Das „KI-Gesetz“ regelt im Wesentlichen die Produkthaftung von KI-Systemen.Dem Einzelnen werden keine neuen Rechte eingeräumt, daher kann deren Durchsetzung nur auf den Verwaltungsvollzug der EU zurückgreifen. Aufgrund des Souveränitätsprinzips kann eine entsprechende Durchsetzung tatsächlich nur innerhalb der EU erfolgen, was auch eine Herausforderung für den globalen Einfluss der KI darstellt ​​​​Recht.

Sun Yuanzhao, ein Rechtswissenschaftler in den Vereinigten Staaten, glaubt jedoch, dass die Compliance-Anforderungen des „KI-Gesetzes“ ein gewisses Maß an Unannehmlichkeiten für den Betrieb von Unternehmen verursachen können, dies gilt jedoch für alle Compliance-Anforderungen. Aus positiver Sicht können dadurch größere Sicherheitsunfälle bis zu einem gewissen Grad vermieden werden, und wenn es unglücklicherweise zu einem Unfall kommt, können wir in kürzester Zeit Ideen sammeln, um gemeinsam das Problem und die Lösung herauszufinden. Dies wird auch dazu beitragen, eine Lösung zu finden das Vertrauen der Gesellschaft zu stärken und die gesunde und geordnete Entwicklung des Gesamtmarktes zu fördern.