uutiset

Voiko EU:n tekoälylaki tulla voimaan ja johtaa globaaleja sääntöjä?

2024-08-13

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

EU toivoo voivansa ottaa tekoälyn johtoasemaan lainsäädännössä ja globaalien sääntöjen johtamisessa. Se on kuitenkin herättänyt laajaa kritiikkiä tiukkojen sääntelytoimien nopeasta käyttöönotosta teollisen kehityksen alkuvaiheessa nähtäväksi.

Tämän artikkelin sanojen määrä on 6256 ja lukuaika on noin 18minuutti

Teksti |Financial E Law Fan Shuo

Muokkaa |Guo Liqin

EU on jälleen maailman kärjessä lainsäädännön nopeudessa, tällä kertaa tekoälyn alalla, joka on edelleen kuuma. On kuitenkin edelleen epäselvää, kuinka nämä epämääräiset ehdot lopulta pannaan täytäntöön.

Elokuussa astui virallisesti voimaan maailman ensimmäinen tekoälyä kattavasti säätelevä laki, European Artificial Intelligence Act (jäljempänä "AI-laki").

Eniten huomiota on herättänyt se, että tekoälylain säännökset pannaan täytäntöön vaiheittain. Tämän lain voimaantulopäivä on 1. elokuuta, mutta vain osa sen säännöksistä on voimassa. Aikataulun mukaan lakiesityksen kielletyt käytännöt tulevat voimaan kuuden kuukauden kuluttua sen voimaantulosta, yleistä tekoälyä koskevat velvoitteet ja säännöt tulevat voimaan 12 kuukauden kuluttua 1. elokuuta 24 kuukauden kuluttua, mutta joitain sääntöjä korkean riskin tekoälyjärjestelmiä aletaan soveltaa 36 kuukauden kuluttua.

Tämä tekoälyä koskevien kattavien sääntelysääntöjen sarja, joka tunnetaan "tiukimpana" historiassa, sisältää kaikki valvonnan piirissä olevat tekoälyn toimialaketjun yksiköt, mukaan lukien tekoälyjärjestelmän tarjoajat, käyttäjät, maahantuojat ja jakelijat, joilla on yhteyksiä EU:n markkinat ja tuotteiden valmistajat.

"Tekoälylaki" laajensi myös sääntelytyökaluja: se ei ainoastaan ​​ottanut käyttöön riskilähtöistä hierarkkista hallintamallia, vaan myös suunniteltiin "sääntelyhiekkalaatikko" pk-yritysten ja uusien yritysten vaatimustenmukaisuuden vähentämiseksi. Myös terävät "hampaat" herättivät huomiota:Jos asiaa koskevia määräyksiä rikotaan, yrityksille voidaan määrätä sakkoja, jotka ovat enintään 35 miljoonaa euroa (noin 270 miljoonaa juania) tai 7 % edellisen tilikauden maailmanlaajuisesta vuosiliikevaihdosta (sen mukaan kumpi on suurempi).

Tekoälylain laatimisen alusta lähtien EU on toivonut voivansa käyttää sitä johtamaan tekoälyn sääntöjä.

EU:n digitaaliasioiden päällikkö Margaret Vestager julkisti "AI-lain" huhtikuussa 2021. Tuolloin hän sanoi: "EU ottaa johtoaseman uusien maailmanlaajuisten normien kehittämisessä varmistaakseen, että tekoäly on luotettava EU:n jäsen Thierry Breton, Komission sisämarkkinoista vastaava komissaari sanoi myös sosiaalisessa mediassa, että laki "tulee olemaan tärkeä opas, joka auttaa EU:n startup-yrityksiä ja tutkijoita johtamaan maailmanlaajuista kilpailua tekoälyn alalla".

Tekoälylain nopea käyttöönotto, kun tekoälyteollisuuden kehitys oli vielä lapsenkengissä, on kuitenkin herättänyt laajaa kritiikkiä.Vastustajat väittävät, että hätäiset yritykset säännellä taustalla olevia malleja rajoittavat itse tekniikan käyttöä.

Kansainvälisen liike-elämän ja taloustieteen yliopiston digitaalitalouden ja lakiinnovaatioiden tutkimuskeskuksen johtaja Xu Xu uskoo, että "AI-lain" asteittaisten täytäntöönpanosäännösten tarkoituksena on antaa EU:n yrityksille riittävä puskurijakso, josta kannattaa ottaa opiksi asiaa koskevaa lainsäädäntöä.

Tutkittuaan säännöksiä Zhang Linghan, Kiinan valtiotieteen ja oikeuden yliopiston Data Law Instituten professori ja YK:n tekoälyä käsittelevän korkean tason neuvoa-antavan elimen kiinalainen jäsen, sanoi, että vaikka "AI-laki" on Tiedetään tiukoiksi, että sääntelytoimenpiteiden rajoitettu täytäntöönpano ja innovatiiviset sääntelytyökalut ovat kaikki EU:n säädökset, jotka tarjoavat tarvittavan tilan joustavalle kehitykselle, muttaSe lisää myös EU:n ulkopuolisten yritysten vaatimustenmukaisuuskustannuksia.

King & Wood Mallesonsin vaatimustenmukaisuudesta vastaava johtaja Ning Xuanfeng uskoo, että "AI-lain" todellisia vaikutuksia ja vaikutuksia on noudatettava sen jälkeen, kun kaikki määräykset tulevat voimaan, yhdistettynä tekoälyteollisuuden kehitykseen ja sääntelyyn liittyviin tuloksiin. aika. Vaikutus Kiinan lainsäätäjille on se, että suuren riskin tekoälyjärjestelmiin liittyy useita asiaankuuluvia tahoja koko käyttöönottoprosessin ajan. Tekoälylaki asettaa vaatimustenmukaisuusvaatimukset asiaankuuluvien tahojen osallistumisasteeseen ja käsittelee asiaankuuluvien tahojen rikkomuksia. määrättiin sakkoja. Ning Xuanfengin mukaan Kiinan nykyiset "generatiivisten tekoälypalvelujen hallinnan väliaikaiset toimenpiteet" keskittyvät pääasiassa palveluntarjoajiin hallinnon lähtökohtana. Mikäli Kiina säätelee tekoälyä tulevaisuudessa, se voi harkita tekoälyjärjestelmän arvoketjun kaikki osapuolet kattavan vastuumekanismin perustamista, mikä auttaa paremmin rajaamaan kunkin osapuolen vastuurajoja, mikä stimuloi tutkimus- ja kehitystyötä tai palvelumotivaatiota.

01

Valaistusta EU-lainsäädännöstä

EU on käynyt läpi yksityiskohtaisia ​​keskusteluja, jotka kattavat kaikkien osapuolten huolenaiheet lainsäädäntöprosessin aikana. Nämä sisällöt sekä koko lainsäädännön suuntautuminen ja ajattelu ovat tuoneet arvokkaita viitteitä myös muihin maihin tai alueisiin.

EU:n nopea lainsäädäntö on saanut kansainvälistä kritiikkiä.

Mediatietojen mukaan EU:n lainsäätäjät kävivät maratonneuvotteluja joulukuussa 2023 saadakseen säännöt käyttöön. Mutta kriitikot sanovat, että säännöt eivät mene tarpeeksi pitkälle, sillä sääntelijöiltä puuttuu tärkeitä yksityiskohtia, joita yritykset kipeästi tarvitsevat lain täytäntöönpanoa varten. Jotkut ammattilaiset arvioivat senEU tarvitsee 60–70 johdettua lainsäädäntöä tukeakseen tekoälylain täytäntöönpanoa.

Kai Zena, Euroopan parlamentin avustaja, joka osallistui tekoälylain laatimiseen, myönsi:"Laki on melko epämääräinen. Ajanpaine jättää paljon asioita ilmaan. Sääntelyviranomaiset eivät pääse yksimielisyyteen näistä asioista, joten on helpompi tehdä kompromisseja."

Xu sanoi, että suurin kritiikki tekoälylakia kohtaan on, että se perustuu riskiin perustuvaan lähestymistapaan ja siitä puuttuu yksilöiden voimaannuttaminen. Lisäksi tekoälylain tuleva täytäntöönpano edellyttää myös monia koordinointiongelmia muiden lakien ja asetusten kanssa. Esimerkiksi yhteensovittaminen lakien, kuten yleisen tietosuoja-asetuksen (GDPR), digitaalimarkkinalain (DMA) ja Data Governance Actin (DGA) kanssa aiheuttaa paljon ongelmia. Lisäksi yleisenä laina tekoälylain on otettava huomioon täytäntöönpanokysymykset useilla aloilla, mukaan lukien rahoitus, sairaanhoito, kuljetus ja muut alat.

"Itse asiassa se voi aiheuttaa enemmän ongelmia kuin ratkaisee", Xu sanoi.

Vaikka se on kohdannut kritiikkiä, "AI-lain" lainsäädännölliset ajatukset ovat vahvistuneet pääasiassa siksi, että se ottaa huomioon alan yleisen kehitysprosessin.

Zhang Linghan huomautti,Vaikka se tunnetaankin historian tiukimpana tekoälyä säätelevänä laina, "AI-lain" sääntelytoimenpiteet ovat itse asiassa rajalliset, ja sen laadinnan aikana sen katsottiin myös edistävän EU:n tekoälyteollisuuden yleistä kehitystä.

Erityisesti,Zhang Linghan uskoo, että ensinTekoälylaki tarjoaa poikkeuksia joidenkin tekoälyjärjestelmien kehittämiseen ja käyttöön.Sisältää erityisesti sotilaallisiin, puolustus- tai kansallisiin turvallisuustarkoituksiin kehitetyt järjestelmät, erityisesti tieteelliseen tutkimukseen kehitetyt järjestelmät sekä ilmaiset ja avoimen lähdekoodin tekoälyjärjestelmät.

Toiseksi tekoälylaissa ehdotetaan useita tukitoimenpiteitä.Vähentää EU:n yritysten, erityisesti pienten ja keskisuurten yritysten, hallinnollista ja taloudellista taakkaa.

Kolmanneksi "AI-lain" vaiheittainen noudattamisaikataulu ja sen luoma sääntely-hiekkalaatikkojärjestelmä ovat vastaavasti.Se tarjoaa tietyn määrän aikaa ja tilaa EU:n tekoälyteollisuuden kehitykselle.

Neljänneksi tekoälylain ekstraterritoriaalinen vaikutusEU:n ulkopuolisten yritysten vaatimusten noudattamisesta koituvat kustannukset, mikä rajoittaa EU:n ulkopuolisten yritysten halukkuutta laajentaa Euroopan markkinoita, mikä voi jossain määrin vähentää EU-yritysten kilpailupaineita.

Xu uskoo, että tekoälylain vaiheittainen täytäntöönpano voi johtua kahdesta syystä. Yhtäältä tekoäly on nopeasti kehittyvä sääntelyala. Teknologian ja teollisuuden muutoksiin reagoidaan lain voimaantulon jälkeen teollisuudelle, jotta yritykset voivat tarkastella omia teknisiä reittejään ja liiketoimintamallejaan. Toisaalta "AI-laki" on yhteistyöhön perustuvan hallinnon sääntö. Lakien kääntäminen tekniseksi kieleksi ja alan standardeiksi edellyttää yhteistyötä valvontaviranomaisten ja yritysten kanssa, mikä edellyttää myös ajanvaraamista riskiviestintään, viestintään ja koordinointiin yritysten ja valvontaviranomaisten välillä.

Wu Shenkuon, Beijing Normal University Law Schoolin tohtorituttorin ja China Internet Society Research Centerin apulaisjohtajan Wu Shenkuon mukaan "AI-laki" asettaa sääntelyjärjestelmän vaatimukset läpinäkyvyyteen ja oikeudenmukaisuuteen, joka on ydinlogiikka tutkimuksen ja kehityksen sekä teollisen soveltamisen kannalta. tekoälyä. Se tulee vaikuttamaan pitkällä aikavälillä tekoälyn tutkimus- ja kehityssuuntiin ja markkinoiden soveltamiseen ja muuttaa myös Euroopan markkinarakennetta.

Joten, mitä vaikutuksia tekoälylain mukaisilla kahdella keskeisellä sääntelytyökalulla on muiden maiden lainsäätäjille?

Työkalu yksi: riskiluokituksen hallinta

"Tekoälylain" yleinen sääntelyrakenne pyörii neljän riskitason ympärillä korkeasta matalaan tekoälysovellusten osalta, kuten "riskipyramidi", ja vastaavat riskien ehkäisymekanismit on perustettu vastaavasti.

Tekoälyn mahdollisen vaikutuksen mukaan käyttäjiin ja yhteiskuntaan se jaetaan neljään tasoon:Ei-hyväksyttävä riskiluokka, korkea riskiluokka, rajoitettu riskiluokka, minimaalinen riskiluokka.

Äärimmäisellä tasolla tekoälyjärjestelmät tai -sovellukset, jotka aiheuttavat kohtuuttomia riskejä, kuten sellaiset, joiden katsotaan muodostavan selvän uhan ihmisten turvallisuudelle, jokapäiväiselle elämälle ja perusoikeuksille, kielletään kokonaan.Tällaisten tekoälyjärjestelmien kehittäjille määrätään sakkoja, jotka ovat enintään 6 prosenttia edellisen tilikauden maailmanlaajuisesta liikevaihdosta.(Katso lisätietoja:Tekoälylainsäädännön läpimurto Kiinassa ja Euroopassa samana ajanjaksona: Asetetaanko ChatGPT:lle "liikennevalo"?

Tekoälyn neljä riskitasoa, lähde: Euroopan komission virallinen verkkosivusto

Korkean riskin tekoälyjärjestelmille "AI-laki" määrää koko prosessin kattavan riskinhallintajärjestelmän, joka kattaa ennen markkinoille tuloa ja sen jälkeistä markkinoilletuloa. Ennen markkinoille tuloa yritysten tulee perustaa ja ylläpitää riskienhallintajärjestelmä, hallinnoida tietoja, kehittää ja päivittää teknistä dokumentaatiota sekä toimittaa kaikki tarvittavat tiedot valvontaviranomaisille jne.

Wu Shenkuo esitteli, että perusmetodologiana riskien luokittelu ja luokittelu heijastuu vaihtelevassa määrin eri maiden ja alueiden lainsäädännössä. Sen tärkeä merkitys ja institutionaalinen arvo on valvonnan suhteellisuuden varmistamisessa - samalla kun se täyttää keskeiset säädökset ja strategiset vaatimukset, se tarjoaa myös tarvittavan joustavan kehitystilan tekoälyn kehitykselle.

Kiinassa riskilähtöinen luokittelu- ja luokitusjärjestelmä heijastuu myös algoritmien ja generatiivisen tekoälyn säätelyyn. Syyskuussa 2021 Kiinan kyberavaruushallinto julkaisi "Ohjaavat lausunnot Internetin tietopalvelualgoritmien kokonaisvaltaisen hallinnan vahvistamisesta", jossa ehdotettiin selkeästi algoritmien hierarkkisen ja luokitellun turvallisuuden hallinnan edistämistä, korkean riskin algoritmien tehokasta tunnistamista ja tarkan tarkkuuden toteuttamista. hallintoa.Heinäkuussa 2023 Kiinan kyberavaruushallinnon ja muiden osastojen julkaisemat "Välitoimenpiteet generatiivisten tekoälypalvelujen hallintaa varten" ehdottivat myös generatiivisten tekoälypalvelujen kattavan, varovaisen ja luokitellun ja hierarkkisen valvonnan toteuttamista.

Ning Xuanfeng uskoo, että riskien luokittelustrategia perustuu tekoälyteknologian realistisiin sääntelytarpeisiin ymmärtämättä täysin sosiaalisia riskejä, joita tekoälyteknologia voi aiheuttaa.Progressiivinen sääntelystrategia.

Lisensointi uskoo, että luokittelu ja luokittelu tarkoittavat sitä, että valvontaviranomaisten on kohdennettava sääntelyresursseja tietyssä suhteessa. Tulevaisuudessa tekoäly sulautetaan tuhansiin toimialoihin, kuten Office-ohjelmistoihinHierarkkisen luokituksen pitäisi edelleen olla yksi tekoälyvalvonnan perusideoista.Nykyisestä riskiperusteisesta luokittelusta ja luokittelusta tulisi kuitenkin luopua, koska se näkee vain tekoälyn staattiset riskit, mutta ei dynaamisia hyötyjä. Esimerkiksi korkean riskin tekoälyjärjestelmät tarkoittavat usein suurta tuottoa.

"AI-lain" hierarkkinen luokitus eroaa Kiinan nykyisestä hierarkkisesta luokituslogiikasta. Lisensoinnin johdanto, luokittelu englanniksi on yksi sana - luokitus. Mutta Kiinassa luokittelu ja luokittelu ovat kaksi käsitettä: "luokitus" ja "luokitus". Erikoisempaa on, että yleisen tekoälyn myötä Kiinan aikaisemman politiikan klassista tekoälysovellusskenaarioiden luokittelumenetelmää saattaa olla tarpeen muuttaa. Esimerkiksi "Internet Information Service Algorithm Recommendation Management Regulations" -säännöt säätelevät viittä "sovellusalgoritmien suositustekniikoiden" pääluokkaa, mukaan lukien tietopalvelut, kuten luominen ja synteesi, personoitu työntö, lajittelu ja valinta, haku ja suodatus sekä ajoitus ja päätöksenteko tekeminen.Generatiivinen tekoäly ei kuitenkaan enää pysty noudattamaan tätä ajatusta, ja suuria malleja voidaan soveltaa kaikilla aloilla.

Lisenssiesittely,Luokituksen muuttamisen tapauksessa sääntelyviranomaiset voivat silti hoitaa tekoälyn hierarkkista hallintaa. Kiina ottaa käyttöön luokituksen, joka perustuu tekoälyn vaikutuksen asteeseen.Esimerkiksi "Välitoimenpiteet generatiivisten tekoälypalvelujen hallintaa varten"Generatiiviset tekoälypalvelut, jotka tarjoavat yleisen mielipiteen ominaisuuksia tai sosiaalisia mobilisointikykyjä, luokitellaan ja luokitellaan.Tämäntyyppinen palveluntarjoaja on asettanut vaatimuksia algoritmien ja suurten mallien arkistointiin. Logiikka on, että joillakin tekoälyjärjestelmillä on merkittävä vaikutus maahan ja yhteiskuntajärjestykseen, joten valvontaviranomaiset ryhtyvät erilaisiin sääntelytoimiin. Xu Xu uskoo kuitenkin, että tämä ei tarkoita, että Kiinan tekoälylainsäädäntö jatkaisi samoja sääntelytoimenpiteitä tulevaisuudessa, mutta on ennakoitavissa, ettäValvontaviranomaiset käyttävät erilaisia ​​tekijöitä määrittämään tekoälyjärjestelmien vaikutusta ja asettamaan vastaavat sääntelytoimenpiteet.

Zhang Linghan sanoi myös,Generatiivisen tekoälyn monipuolistuessa Kiinan luokitusjärjestelmää on mukautettava tekniikan kehityksen myötä.

Työkalu 2: "Regulatory Sandbox" -järjestelmä

Jatkaen edellistä luonnosta, "AI-laki" ottaa käyttöön rahoitusteknologian valvonnassa yleisen "regulatory sandbox" -järjestelmän.

Niin sanotun "sääntelyn hiekkalaatikon" tarkoituksena on luoda valvottu ja hallittava turvallinen tila, jonka avulla yritykset, erityisesti pienet ja keskisuuret yritykset ja start-up-yritykset, pääsevät "hiekkalaatikkoon" ja osallistuvat aktiivisesti innovatiivisen tekoälyn kehittämiseen ja kehittämiseen. järjestelmät valvontavirastojen tiukassa valvonnassa. Testaa nämä tekoälyjärjestelmät ja tuo ne sitten palvelumarkkinoille. Jos kehitystyön ja testauksen aikana havaitaan merkittäviä riskejä, riskit tulee pienentää välittömästi. Jos riskejä ei voida vähentää tai hallita, avoin testaus tulee keskeyttää.

"Regulatory Sandbox" loi ensimmäisen kerran British Financial Conduct Authority (FCA) vuonna 2015. Li:n mukaan "sääntelyhiekkalaatikko" on EU:n aloite innovaation tukemiseksi, jonka tavoitteena on saavuttaa teknologisia innovaatioita hallittavissa riskeissä. "Sääntelyn hiekkalaatikko" voi luoda hallittavan ympäristön, toteuttaa erityisiä sääntelytoimenpiteitä joillekin tekoälysovelluksille ja antaa mahdollisesti riskialttiille tekoälylle tilaa yritys- ja erehdyksille.

Wu Shenkuo sanoi myös, että "säädösten hiekkalaatikko" on yksi "AI-lain" ominaisuuksista. Tekoälyn kaltaisten uusien teknologioiden ja sovellusten edessä ne voivat auttaa tai edistää jatkuvaa vuoropuhelua EU:n sääntelyviranomaisten ja säänneltyjen henkilöiden välillä.dynaamisen tasapainon ratkaisemiseksi teknologian kehityksen ja sääntelyn välillä.

Tällä hetkellä useat EU:n jäsenvaltiot pilotoivat tekoälyn "sääntely-hiekkalaatikko"-järjestelmää.

Ranska aloittaa "regulatory sandbox" -järjestelmän pilotoinnin vuonna 2022 keskittyenKoulutusala, pilottiin osallistuu tällä hetkellä 5 yritystä.

Toukokuussa 2024 Espanja pyysi lausuntoja "sääntelyn hiekkalaatikon" täytäntöönpanosta. Espanja on selväKorkean riskin tekoälyjärjestelmiä, yleistä tekoälyä ja perusmalleja kahdeksalla alalla, mukaan lukien biometriikka, kriittinen infrastruktuuri sekä koulutus ja koulutus, voidaan soveltaa "sääntelyn hiekkalaatikko"-järjestelmään.Se sisältää myös yksityiskohtaisempia säännöksiä projekteihin pääsystä, asiakirjojen toimittamisesta, riskienhallinnasta ja poistumisehdoista.

Myös Norjalla ja Sveitsillä on samanlaisia ​​pilottiprojekteja. Esimerkiksi norjalainen julkisen liikenteen tarjoaja Ruter suoritti riskiarvioinnin online-matkasuosituksen tekoälyalgoritmille, joka perustui "säädösten mukaiseen hiekkalaatikkoon". Viisi pilottiyritystä Sveitsissä harjoittavat vastaavastiMiehittämättömät maatalouskoneet, droonit, konekäännöstyöt, käyttövirheiden korjaus ja pysäköintiaikataulut jne.alan tutkimus ja kehitys.

Kiinassa "regulatory sandbox" -järjestelmää sovelletaan myös finanssiteknologian valvonnassa. 31. tammikuuta 2019 "Vastaus kattavaan pilottityösuunnitelmaan Pekingin palveluteollisuuden laajentamisen ja avaamisen kokonaisvaltaiseksi edistämiseksi" osavaltioneuvosto päätti, että Pekingin olisi tutkittava "sääntely-hiekkalaatikko"-mekanismia oikeudellisten edellytysten mukaisesti. noudattamista. Kiinan keskuspankki hyväksyi 5. joulukuuta 2019 tuen Pekingille, jotta se voisi ottaa johtoaseman valtakunnallisen pilottihankkeen käynnistämisessä finanssiteknologian innovaatioiden valvonnassa ja tutkia "sääntelyn hiekkalaatikon" kiinalaista versiota.

Lisensoinnin näkökulmasta "sääntelyhiekkalaatikko" ei ole vain teknologinen innovaatio, vaan myös sääntelyinnovaatio. Tämä järjestelmä itse asiassa suorittaa kokeita kahdella tavalla: toinen on säänneltyjen kokeellinen hallinta, toinen antaa sääntelijöille mahdollisuuden testata sääntelysääntöjen järkevyyttä ja tarpeellisuutta hiekkalaatikossa.Kypsä "sääntelyhiekkalaatikko" on yhteistyöinnovaatio sääntelijän ja säännellyn välillä, eli sääntelijä säätää sääntelysääntöjään "hiekkalaatikon" palautteen perusteella, ja säädeltyä myös testataan ja varmistetaan "hiekkalaatikon" perusteella. tilanteeseen, muuttaa liiketoimintamalliaan ja teknologian kehityssuuntaansa.

Mutta Zhang Linghan muistutti,"Sääntelyhiekkalaatikko" asettaa tiukempia vaatimuksia sääntelyvirastojen seuranta- ja arviointikyvylle, ja sen todellisia vaikutuksia ja toimialavaikutuksia on jatkuvasti seurattava.

02

Maailmanlaajuinen vaikutus jää nähtäväksi

EU on aina ollut digitaalilainsäädännön eturintamassa ja yrittää viedä standardeja maailmalle "Brysselin efektin" kautta.

"Brysselin vaikutus" viittaa siihen, että EU:n omien sisämarkkinoidensa valvontaprosessissa monikansalliset yritykset ovat hyväksyneet nämä standardit noudattamalla niitä ja tehneet EU:n standardeista vähitellen maailmanstandardeja. GDPR:n täytäntöönpano on hyvä esimerkki. GDPR on 25.5.2018 voimaan tulleet ohjeet ja käytännöt, jotka koskevat henkilötietojen tietosuojaa Euroopan unionissa. Monikansalliset teknologiayritykset toteuttavat tietojenkäsittelyn vaatimustenmukaisuuden GDPR:n vaatimusten mukaisesti ja käyttävät tätä standardia tietojenkäsittelyyn EU:n ulkopuolella, mikä tekee EU-standardista maailmanstandardin.

Zhang Linghan uskoo, että EU:n oma tekoälyteollisuus on tekoälyn tärkeä markkina-alue suhteellisen heikko. "Tekoälylaki" pyrkii toistamaan GDPR:n maailmanlaajuisen hallintokehyksen ja laajentamaan "Brysselin vaikutusta" ja hankkimaan siten neuvottelumerkkejä maailmanlaajuiseen teolliseen kilpailuun. ja etujen uudelleen jakaminen. Tässä suhteessa maailma tarkkailee, voiko "AI-laki" täyttää odotukset.

Tekoälylain täytäntöönpano edellyttää sekä paikalliset EU:n teknologiayritykset että monikansalliset teknologiayritykset.

Digital Europen pääjohtaja Cecilia Bonefield-Dahl varoitti, että tämä lähestymistapa johti huonoon sääntelyyn,Se estää tulevaisuudessa kilpailua Euroopan ja Yhdysvaltojen välillä uusien tekoälyyritysten alalla."EU-yrityksille aiheutuvat ylimääräiset vaatimustenmukaisuuskustannukset ovat vähentäneet voittojamme entisestään", hän sanoi."Kun muu maailma palkkaa ohjelmoijia, me palkkaamme lakimiehiä."

Zhang Linghan sanoi, että "AI-lain" voimaantulo on tuonut moniulotteisia haasteita Euroopassa toimiville teknologiayrityksille, ja se on tehnyt vastaavat määräykset kaikilla tekoälyn tuotekehityksen, testauksen, käyttöönoton ja soveltamisen osa-alueilla. Hänen mukaansa teknologiayritysten ei tarvitse ainoastaan ​​lisätä panostuksia vaatimustenmukaisuuskustannuksiin varmistaakseen EU:n mukaisen vaatimustenmukaisuusjärjestelmän luomisen, vaan niiden on myös jatkettava kohdemarkkinoiden arviointia ja seurantaa sekä tehtävä tarvittavia muutoksia tutkimukseen ja Kehitysprosessi ja toiminnallinen suunnittelu varmistaakseen Täyttää tekoälylain edellyttämät korkeat turvallisuus- ja läpinäkyvyysstandardit.

Ning Xuanfeng uskoo, että intuitiivisin asia on, että mitä tulee korkean riskin tekoälyjärjestelmän tarjoajiin, "AI-lain" vaikutus näkyy ainakin asiaankuuluvien tahojen noudattamiskustannuksissa sopeutuakseen asiaankuuluviin sääntelyvaatimuksiin Toisin sanoen asianomaiset tahot eivät ehkä pysty edes jatkamaan asianmukaisten järjestelmien tarjoamista, mikä voi aiheuttaa vastaavia taloudellisia menetyksiä.

Joten miten kiinalaisten tekoälyyritysten pitäisi reagoida?

Zhang Linghan ehdotti, että sisäänVaatimustenmukaisuustaso, kiinalaisten yritysten tulisi ensin arvioida kattavasti "AI-lain" vaatimukset, mukauttaa nopeasti ja dynaamisesti noudattamisstrategioita ja perustaa sisäiset vaatimustenmukaisuuden hallintajärjestelmät. .Laadi asiaankuuluvat riskisuunnitelmat; vihdoinkin,Kansainvälistä yhteistyötä ja vaihtoa tulisi vahvistaa,Kiinnitä huomiota ulkomaisen lainsäädännön ja lainvalvonnan kehitykseen kansainvälisen kilpailukyvyn parantamiseksi.

Permit uskoo, että EU ei onnistu toistamaan GDPR:n "Brysselin" vaikutusta. GDPR:n onnistumiselle on kolme edellytystä: ensimmäinen on laaja toimivalta, toinen korkeatasoiset lakivaatimukset ja kolmas korkeat sakot. Vaikka tekoälylaki on tällä hetkellä yhdenmukainen GDPR:n kanssa näissä kolmessa näkökohdassa, tärkeä ero on, että tiedon on kuljetettava rajojen yli ja tekoälyjärjestelmät voidaan jakaa. Tietojen sujuvuus mahdollistaa sen, että sääntelijät voivat epäsuorasti vaikuttaa maailmanlaajuisesti säätelemällä tiedon sisään- ja ulosvirtausta EU:ssa, mutta tämä ei voi näkyä tekoälysääntelyssä.Tekoälyyritykset voivat perustaa täysin jakautuvat markkinat, eikä niiden tarvitse noudattaa EU:n sääntöjä kehittäessään tekoälyteollisuutta EU:n ulkopuolelle.

Lisenssimuistutuksena on tärkeää huomata, että tekoälylaissa on kaksi poikkeusta: Toinen on tekoälytutkimuksen ja -kehityksen poikkeus. Monet yritykset voivat tehdä tutkimusta ja kehitystä EU:ssa ja tarjota palveluita EU:n ulkopuolella. Toinen on avoimen lähdekoodin poikkeus, joka rajoittaa vain joitain suljetun lähdekoodin tekoälyjärjestelmiä. Esimerkiksi Google voi epäsuorasti vaikuttaa tuotteisiin ja palveluihin EU:n markkinoilla avoimen lähdekoodin tekoälyn avulla.

Xu huomautti myös, että GDPR antaa yksilöille erittäin vahvat oikeudet, ja nämä yksityiset oikeudet ovat kannustaneet yksilöitä ja kansalaisjärjestöjä aloittamaan oikeudellisia kanteita valvonnan saavuttamiseksi oikeudenkäynneillä. "Tekoälylaki" määrittelee olennaisesti tekoälyjärjestelmien tuotevastuun.Yksilöille ei anneta uusia oikeuksia, joten niiden täytäntöönpano voi luottaa vain EU:n hallinnolliseen täytäntöönpanoon. Suvereniteetin periaatteen perusteella asiaankuuluvaa täytäntöönpanoa voidaan toteuttaa vain EU:n sisällä, mikä on myös haaste tekoälyn maailmanlaajuiselle vaikutukselle. lakia.

Yhdysvaltalainen oikeustieteilijä Sun Yuanzhao kuitenkin uskoo, että "AI-lain" noudattamisvaatimukset voivat aiheuttaa jonkin verran haittaa yritysten toiminnalle, mutta näin on kaikkien vaatimustenmukaisuusvaatimusten kohdalla. Positiivisesta näkökulmasta näin voidaan jossain määrin välttää suuria turvallisuusonnettomuuksia, ja jos onnettomuus sattuu, voimme lyhyessä ajassa pohtia ideoita ongelman ja ratkaisun selvittämiseksi yhdessä yhteiskunnan luottamusta ja edistää markkinoiden tervettä ja hallittua kehitystä.