Le mie informazioni di contatto
Posta[email protected]
2024-08-13
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
“
L’UE spera di utilizzare l’intelligenza artificiale per assumere un ruolo guida nel legiferare e guidare le regole globali. Tuttavia, ha attirato critiche diffuse per aver introdotto rapidamente misure normative rigorose nella fase iniziale dello sviluppo industriale. L’effettivo processo di attuazione e l’effetto di attuazione della legge rimangono essere visto.
Il numero di parole in questo articolo è 6256 e il tempo di lettura è di circa 18minuto
Testo |Fan Shuo di diritto finanziario e elettronico
Modifica |Guo Liqin
L’UE ancora una volta guida il mondo nella velocità della legislazione, questa volta nel campo dell’intelligenza artificiale, che continua ad essere caldo. Tuttavia, non è ancora chiaro come questi termini vaghi verranno infine implementati.
Ad agosto è entrata ufficialmente in vigore la prima legge al mondo che regolamenta in modo completo l'intelligenza artificiale, la legge europea sull'intelligenza artificiale (di seguito denominata "legge sull'intelligenza artificiale").
Ciò che ha attirato maggiormente l’attenzione è che le disposizioni della legge sull’IA saranno attuate per fasi. Il 1° agosto è la data in cui entra in vigore questa legge, ma solo alcune delle sue disposizioni sono in vigore. Secondo il calendario, le pratiche vietate nel disegno di legge entreranno in vigore sei mesi dopo la sua entrata in vigore; gli obblighi e le regole pertinenti per l'intelligenza artificiale generale si applicheranno 12 mesi a partire dal 1° agosto, dopo 24 mesi, il disegno di legge sarà pienamente applicabile, ma alcune regole; per i sistemi di IA ad alto rischio inizierà ad applicarsi dopo 36 mesi.
Questo insieme di norme normative complete per l'IA, note come le "più severe" della storia, comprende tutte le entità della catena industriale dell'IA nell'ambito della supervisione, compresi i fornitori di sistemi di IA, gli utenti, gli importatori e i distributori che hanno collegamenti con l'IA. mercato UE. commercianti e produttori di prodotti, ecc.
La “Legge sull’AI” ha inoltre ampliato gli strumenti normativi: non solo ha introdotto un modello di gestione gerarchica orientato al rischio, ma ha anche progettato un “regulatory sandbox” per ridurre l’onere di conformità per le piccole e medie imprese e le start-up. Anche i "denti" affilati hanno attirato l'attenzione:In caso di violazione delle disposizioni pertinenti, le aziende potrebbero essere multate fino a 35 milioni di euro (circa 270 milioni di yuan) o al 7% delle vendite annuali globali dell'anno fiscale precedente (a seconda di quale valore sia maggiore).
Fin dall’inizio della formulazione della legge sull’IA, l’UE ha sperato di utilizzarla per guidare le regole nel campo dell’IA.
La "Legge sull'intelligenza artificiale" è stata annunciata dal capo degli affari digitali dell'UE Margaret Vestager nell'aprile 2021. All'epoca, aveva dichiarato: "L'UE sta assumendo un ruolo guida nello sviluppo di nuove norme globali per garantire che l'intelligenza artificiale sia affidabile. L'UE Thierry Breton." Anche il commissario per il mercato interno della Commissione ha affermato sui social media che la legge “sarà una guida importante per aiutare le start-up e i ricercatori dell’UE a guidare la competizione globale nel campo dell’intelligenza artificiale”.
Tuttavia, anche la rapida introduzione della legge sull’IA quando lo sviluppo dell’industria dell’IA era ancora agli inizi ha suscitato critiche diffuse.Gli oppositori sostengono che tentativi affrettati di regolamentare i modelli sottostanti limiteranno l’uso della tecnologia stessa.
Xu Xu, direttore del Centro di ricerca sull'economia digitale e l'innovazione giuridica dell'Università di economia e commercio internazionale, ritiene che le disposizioni di attuazione graduale della "legge sull'intelligenza artificiale" dovranno garantire alle imprese dell'UE un periodo cuscinetto sufficiente, da cui vale la pena imparare in legislazione pertinente.
Dopo aver studiato le disposizioni, Zhang Linghan, professore presso l'Istituto di diritto dei dati presso l'Università cinese di scienze politiche e diritto e membro cinese dell'organismo consultivo di alto livello delle Nazioni Unite sull'intelligenza artificiale, ha affermato che sebbene la "legge sull'intelligenza artificiale" sia Noto per essere severo, l’attuazione limitata di misure normative e strumenti normativi innovativi sono tutte le normative dell’UE che le società di intelligenza artificiale forniscono uno spazio necessario per uno sviluppo flessibile, maAumenta inoltre i costi di conformità per le imprese extra-UE.
Ning Xuanfeng, responsabile della conformità presso King & Wood Mallesons, ritiene che gli effetti reali e l'impatto della "Legge sull'intelligenza artificiale" debbano essere osservati dopo che tutte le disposizioni entreranno in vigore, insieme allo sviluppo e ai risultati normativi dell'industria dell'intelligenza artificiale in quel momento. tempo. Per i legislatori cinesi ciò implica che i sistemi di intelligenza artificiale ad alto rischio coinvolgono più entità rilevanti durante l’intero processo di messa in servizio. La legge sull’intelligenza artificiale stabilisce i requisiti di conformità in base al grado di partecipazione delle entità rilevanti e affronta le violazioni da parte dei soggetti interessati enti. Secondo Ning Xuanfeng, le attuali “misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa” della Cina si concentrano principalmente sui fornitori di servizi come punto di partenza per la governance. Se in futuro la Cina dovesse legiferare sull’intelligenza artificiale, potrebbe prendere in considerazione l’istituzione di un meccanismo di responsabilità che copra tutte le parti nella catena del valore del sistema di intelligenza artificiale, che sarà più utile nel delimitare i confini di responsabilità di ciascuna parte, stimolando così la ricerca e lo sviluppo o la motivazione al servizio.
01
Illuminismo dalla legislazione comunitaria
L’UE ha portato avanti discussioni approfondite che coprono le preoccupazioni di tutte le parti durante il processo legislativo. Questi contenuti, così come l'orientamento e la riflessione dell'intera legislazione, hanno portato preziosi riferimenti anche ad altri paesi o regioni.
La rapida legislazione dell'UE è stata criticata a livello internazionale.
Secondo quanto riportato dai media, i legislatori dell’UE hanno tenuto trattative maratona nel dicembre 2023 per far adottare le regole. Ma i critici sostengono che le regole non sono sufficientemente approfondite, poiché i regolatori perdono dettagli importanti di cui le aziende hanno disperatamente bisogno per far rispettare la legge. Alcuni professionisti lo stimanoL’UE ha bisogno di 60-70 atti di diritto derivato per sostenere l’attuazione della legge sull’IA.
Kai Zena, assistente al Parlamento europeo che ha partecipato alla stesura della legge sull'IA, ha ammesso:"La legge è piuttosto vaga. La pressione del tempo lascia molte cose in sospeso. I regolatori non riescono a mettersi d'accordo su queste cose, quindi è più facile scendere a compromessi."
Xu ha affermato che la più grande critica alla legge sull’intelligenza artificiale è che si basa su un approccio basato sul rischio e manca di responsabilizzazione degli individui. Inoltre, la futura attuazione della legge sull’IA dovrà affrontare anche un gran numero di problemi di coordinamento con altre leggi e regolamenti. Ad esempio, il coordinamento con le normative legali come il Regolamento generale sulla protezione dei dati (GDPR), il Digital Markets Act (DMA) e il Data Governance Act (DGA) causerà molti problemi. Inoltre, come legge generale, la Legge sull’IA deve considerare le questioni di attuazione in molteplici campi, tra cui la finanza, l’assistenza medica, i trasporti e altri campi.
"In effetti, potrebbe causare più problemi di quanti ne risolva", ha detto Xu.
Sebbene abbia incontrato critiche, le idee legislative della "Legge sull'intelligenza artificiale" sono state affermate, soprattutto perché tiene conto del processo di sviluppo complessivo del settore.
Zhang Linghan ha sottolineato,Sebbene sia conosciuta come la legge di regolamentazione dell'IA più rigorosa della storia, le misure normative della "Legge sull'IA" sono in realtà limitate e durante il suo processo di formulazione si è ritenuto che promuovesse lo sviluppo complessivo dell'industria dell'IA dell'UE.
Nello specifico,Zhang Linghan crede che per primo,La legge sull’intelligenza artificiale prevede esenzioni per lo sviluppo e l’utilizzo di alcuni sistemi di intelligenza artificiale.Comprende sistemi sviluppati specificatamente per scopi militari, di difesa o di sicurezza nazionale, sistemi sviluppati specificatamente per la ricerca scientifica e sistemi di intelligenza artificiale gratuiti e open source.
In secondo luogo, la Legge AI propone una serie di misure di sostegno.Ridurre l’onere amministrativo e finanziario per le imprese dell’UE, in particolare le piccole e medie imprese.
In terzo luogo, lo sono rispettivamente il calendario di adeguamento graduale della “Legge sull’IA” e il sistema sandbox normativo da essa creatoFornisce una certa quantità di tempo e spazio per lo sviluppo del settore dell’IA dell’UE.
In quarto luogo, l’effetto extraterritoriale della legge sull’IA lo faràAumento dei costi di compliance per le imprese extra-UE, che limiterà la volontà delle imprese extra-UE di espandere il mercato europeo, il che può ridurre in una certa misura la pressione competitiva sulle imprese dell’UE.
Xu ritiene che l’attuazione graduale della legge sull’IA possa essere dovuta a due ragioni. Da un lato, l’intelligenza artificiale è un ambito normativo in rapido sviluppo. Vi è ancora grande incertezza su come reagire ai cambiamenti tecnologici e industriali dopo l’entrata in vigore della legge l'industria per consentire alle aziende di rivedere i propri percorsi tecnici e modelli di business, dall'altro, la "Legge sull'intelligenza artificiale" è una regola di governance collaborativa. Affinché le leggi possano essere tradotte in linguaggio tecnico e standard di settore, è necessario cooperare con le autorità di regolamentazione e le imprese, il che richiede anche di dedicare tempo alla comunicazione del rischio, alla comunicazione e al coordinamento tra imprese e autorità di regolamentazione.
Secondo Wu Shenkuo, tutor di dottorato presso la Facoltà di Giurisprudenza dell'Università Normale di Pechino e vicedirettore del Centro di ricerca della China Internet Society, la "Legge sull'intelligenza artificiale" stabilisce i requisiti del sistema normativo con trasparenza ed equità come logica centrale per la ricerca, lo sviluppo e l'applicazione industriale di intelligenza artificiale. Avrà un impatto a lungo termine sulla direzione della ricerca e dello sviluppo e sull’applicazione del mercato dell’intelligenza artificiale e cambierà anche la struttura del mercato europeo.
Quindi, quali implicazioni porteranno ai legislatori di altri paesi i due principali strumenti normativi previsti dalla legge sull’intelligenza artificiale?
L'impianto normativo complessivo della "Legge sull'IA" ruota attorno a quattro categorie di livelli di rischio, dall'alto al basso, per le applicazioni dell'intelligenza artificiale, simili a una "piramide del rischio", con i corrispondenti meccanismi di prevenzione del rischio stabiliti rispettivamente.
In base al potenziale impatto dell’intelligenza artificiale sugli utenti e sulla società, questa è divisa in quattro livelli:Categoria di rischio inaccettabile, categoria di rischio elevato, categoria di rischio limitato, categoria di rischio minimo.
Al livello più estremo, i sistemi o le applicazioni di intelligenza artificiale che comportano rischi inaccettabili, come quelli ritenuti una chiara minaccia per la sicurezza delle persone, la vita quotidiana e i diritti fondamentali, saranno completamente vietati.Gli sviluppatori di tali sistemi di intelligenza artificiale saranno multati fino al 6% del fatturato globale dell’anno fiscale precedente.(Per i dettagli vedere:Scoperte nella legislazione sull’intelligenza artificiale in Cina e in Europa nello stesso periodo: impostare un “semaforo” per ChatGPT?)
Quattro livelli di rischio dell'intelligenza artificiale, fonte: sito ufficiale della Commissione Europea
Per i sistemi di intelligenza artificiale ad alto rischio, la "Legge sull'intelligenza artificiale" prevede un sistema di gestione del rischio completo che copre l'ingresso sul mercato prima e dopo l'ingresso sul mercato. Prima di entrare nel mercato, le aziende devono istituire e mantenere un sistema di gestione del rischio, condurre la governance dei dati, sviluppare e aggiornare la documentazione tecnica e fornire tutte le informazioni necessarie alle autorità di regolamentazione, ecc.
Wu Shenkuo ha introdotto che, come metodologia di base, la classificazione e la classificazione del rischio si rifletteranno a vari livelli nella legislazione dei diversi paesi e regioni. Il suo importante significato e valore istituzionale risiede nel garantire la proporzionalità della supervisione: oltre a soddisfare le principali preoccupazioni normative e le richieste strategiche, fornisce anche lo spazio di sviluppo flessibile necessario per lo sviluppo dell’IA.
In Cina, il sistema di classificazione e classificazione orientato al rischio si riflette anche nella regolamentazione degli algoritmi e dell’intelligenza artificiale generativa. Nel settembre 2021, la Cyberspace Administration of China ha pubblicato le "Pareri guida sul rafforzamento della gestione completa degli algoritmi dei servizi di informazione Internet", che proponevano chiaramente di promuovere la gestione gerarchica e classificata della sicurezza degli algoritmi, identificare efficacemente algoritmi ad alto rischio e implementare precise governance.Nel luglio 2023, le "Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa" emanate dall'Amministrazione del cyberspazio cinese e da altri dipartimenti hanno inoltre proposto di attuare una supervisione inclusiva, prudente, classificata e gerarchica dei servizi di intelligenza artificiale generativa.
Ning Xuanfeng ritiene che la strategia di classificazione del rischio si basi su esigenze normative realistiche per la tecnologia IA senza comprendere appieno i rischi sociali che potrebbero essere causati dalla tecnologia AI.Strategia normativa progressiva.
Il Licensing ritiene che la classificazione e la classificazione significhino che le autorità di regolamentazione devono allocare le risorse normative secondo una certa proporzione. In futuro, l’intelligenza artificiale sarà integrata in migliaia di settori come i software OfficeLa classificazione gerarchica dovrebbe ancora essere una delle idee di base per la supervisione dell’IA.Tuttavia, l’attuale classificazione e classificazione basata sul rischio dovrebbe essere abbandonata perché considera solo i rischi statici dell’IA ma non i benefici dinamici. Ad esempio, i sistemi di intelligenza artificiale ad alto rischio spesso significano rendimenti elevati.
La classificazione gerarchica nella "Legge sull'intelligenza artificiale" è diversa dalla logica di classificazione gerarchica esistente in Cina. Introduzione alla licenza, la classificazione in inglese è una sola parola: classificazione. Ma in Cina classificazione e classificazione sono due concetti: "classificazione" e "valutazione". Ciò che è ancora più speciale è che, con l’avvento dell’intelligenza artificiale generale, potrebbe essere necessario modificare il classico metodo di classificazione degli scenari di applicazione dell’IA nelle precedenti politiche cinesi. Ad esempio, il "Regolamento sulla gestione delle raccomandazioni sugli algoritmi del servizio di informazione Internet" regola cinque categorie principali di "tecnologie di raccomandazione degli algoritmi applicativi", inclusi servizi di informazione come generazione e sintesi, push personalizzato, ordinamento e selezione, recupero e filtraggio, pianificazione e decisione. fabbricazione.Tuttavia, l’intelligenza artificiale generativa non può più seguire questa idea e i modelli di grandi dimensioni possono essere applicati in tutti i campi.
Introduzione alla licenza,In caso di adeguamento della classificazione, le autorità di regolamentazione possono comunque condurre una gestione gerarchica dell’intelligenza artificiale. La Cina adotta una classificazione basata sul grado di impatto dell’IA.Ad esempio, le “Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa”I servizi di intelligenza artificiale generativa che forniscono attributi dell’opinione pubblica o capacità di mobilitazione sociale sono classificati e classificati.Questo tipo di fornitore di servizi ha presentato requisiti per l'archiviazione di algoritmi e l'archiviazione di modelli di grandi dimensioni. La logica è che alcuni sistemi di intelligenza artificiale hanno un impatto significativo sul Paese e sull’ordine sociale, quindi le autorità di regolamentazione adotteranno misure normative diverse. Tuttavia, Xu Xu ritiene che ciò non significhi che la legislazione cinese sull’intelligenza artificiale continuerà con le stesse misure normative in futuro, ma è prevedibile cheLe autorità di regolamentazione utilizzeranno vari fattori per determinare l’impatto dei sistemi di intelligenza artificiale e stabilire le misure normative corrispondenti.
Zhang Linghan ha anche detto,Man mano che l’intelligenza artificiale generativa diventa più versatile, il sistema di classificazione cinese deve essere adattato in tempo con lo sviluppo della tecnologia.
Proseguendo la bozza precedente, la “Legge sull’intelligenza artificiale” introduce il sistema “regulatory sandbox” comune nella supervisione delle tecnologie finanziarie.
La cosiddetta "sandbox normativa" mira a creare uno spazio sicuro supervisionato e controllabile, consentendo alle imprese, in particolare alle piccole e medie imprese e alle start-up, di entrare nella "sandbox" e partecipare attivamente allo sviluppo e allo sviluppo di un'intelligenza artificiale innovativa sistemi sotto la stretta supervisione delle agenzie di regolamentazione, testare e quindi lanciare questi sistemi di intelligenza artificiale nel mercato dei servizi. Se durante lo sviluppo e il test vengono scoperti rischi importanti, i rischi dovrebbero essere mitigati immediatamente. Se i rischi non possono essere mitigati o controllati, i test aperti dovrebbero essere sospesi.
Il "Regulatory Sandbox" è stato creato per la prima volta dalla British Financial Conduct Authority (FCA) nel 2015. Secondo Li, il sistema "sandbox normativo" è un'iniziativa dell'UE a sostegno dell'innovazione, con l'obiettivo di raggiungere l'innovazione tecnologica con rischi controllabili. La “sandbox normativa” può creare un ambiente controllabile, adottare misure normative specifiche per alcune applicazioni di IA e dare all’IA potenzialmente rischiosa uno spazio per tentativi ed errori.
Wu Shenkuo ha anche affermato che la "sandbox normativa" è una delle caratteristiche della "Legge sull'IA". Di fronte alle nuove tecnologie e applicazioni come l’intelligenza artificiale, queste possono aiutare o promuovere il dialogo continuo tra i regolatori dell’UE e le persone regolamentate.per affrontare l’equilibrio dinamico tra sviluppi tecnologici e preoccupazioni normative.
Attualmente, diversi Stati membri dell’UE stanno sperimentando un sistema di “sandbox normativo” nel campo dell’IA.
La Francia inizierà a sperimentare il sistema “sandbox normativo” nel 2022, concentrandosi suSettore dell'istruzione, attualmente ci sono 5 aziende che partecipano al progetto pilota.
Nel maggio 2024, la Spagna ha sollecitato pareri sull'attuazione di un "sandbox normativo". La Spagna è chiaraI sistemi di intelligenza artificiale ad alto rischio, l'intelligenza artificiale generale e i modelli di base in otto campi, tra cui la biometria, le infrastrutture critiche e l'istruzione e la formazione, sono applicabili al sistema "sandbox normativo".Fornisce inoltre norme più dettagliate sull’accesso al progetto, sull’invio di documenti, sulla gestione del rischio e sulle condizioni di uscita.
Anche la Norvegia e la Svizzera hanno progetti pilota simili. Ad esempio, l’azienda norvegese di trasporti pubblici Ruter ha condotto una valutazione del rischio sul suo algoritmo AI per le raccomandazioni di viaggio online basato sulla “sandbox normativa”. Le cinque aziende pilota in Svizzera sono rispettivamente impegnateMacchine agricole senza pilota, droni, traduzione automatica, correzione di errori operativi e pianificazione dei parcheggi, ecc.ricerca e sviluppo nel settore.
In Cina, il sistema “sandbox normativo” viene applicato anche nella supervisione delle tecnologie finanziarie. Il 31 gennaio 2019, nella “Risposta al piano di lavoro pilota globale per la promozione globale dell’espansione e dell’apertura del settore dei servizi di Pechino”, il Consiglio di Stato ha convenuto che Pechino dovrebbe esplorare il meccanismo di “sandbox normativo” sulla base di norme giuridiche conformità. Il 5 dicembre 2019, la Banca popolare cinese ha approvato il sostegno a Pechino per assumere l'iniziativa di lanciare un progetto pilota a livello nazionale per la supervisione dell'innovazione tecnologica finanziaria ed esplorare una versione cinese del "sandbox normativo".
Dal punto di vista del Licensing, la “sandbox normativa” non è solo un’innovazione tecnologica, ma anche un’innovazione normativa. Questo sistema sta attualmente conducendo esperimenti su due aspetti: uno è la governance sperimentale dei soggetti regolamentati; l’altro consente ai regolatori di testare la razionalità e la necessità delle regole normative all’interno di un sandbox.Un "sandbox normativo" maturo è un'innovazione collaborativa tra l'ente regolatore e l'ente regolamentato, ovvero l'ente regolatore adegua le proprie regole normative sulla base del feedback proveniente dal "sandbox", e anche il soggetto regolamentato viene testato e verificato sulla base del "sandbox" situazione, per adattare il proprio modello di business e la direzione dello sviluppo tecnologico.
Ma Zhang Linghan ha ricordato,La “sandbox normativa” impone requisiti più severi alle capacità di monitoraggio e valutazione delle agenzie di regolamentazione, e il suo effetto reale e l’impatto sul settore devono essere costantemente osservati.
02
Resta da vedere l’impatto globale
L’UE è da sempre in prima linea nella legislazione digitale e sta cercando di esportare gli standard nel mondo attraverso l’“effetto Bruxelles”.
L'"effetto Bruxelles" si riferisce al fatto che nel processo di supervisione dell'UE sul proprio mercato unico interno, le società multinazionali hanno accettato questi standard attraverso la conformità e hanno gradualmente trasformato gli standard UE in standard mondiali. L’implementazione del GDPR è un buon esempio. Il GDPR è l’insieme delle linee guida e delle politiche che regolano la privacy dei dati personali nell’Unione Europea, entrato in vigore il 25 maggio 2018. Le aziende tecnologiche multinazionali implementano la conformità del trattamento dei dati in base ai requisiti del GDPR e utilizzano questo standard per il trattamento dei dati al di fuori dell’UE, rendendo lo standard UE uno standard mondiale.
Zhang Linghan ritiene che, essendo un mercato importante per l'intelligenza artificiale, l'industria dell'intelligenza artificiale dell'UE sia relativamente debole. La "legge sull'intelligenza artificiale" tenta di riprodurre il quadro di governance globale del GDPR ed estendere ulteriormente l'"effetto Bruxelles", guadagnando così merce di scambio per la concorrenza industriale globale. e ridistribuire i benefici. A questo proposito, il mondo sta osservando se la “Legge sull’intelligenza artificiale” può soddisfare le aspettative.
Esiste un prerequisito per l'attuazione della "Legge sull'intelligenza artificiale". Sia le aziende tecnologiche locali dell'UE che le società tecnologiche multinazionali sono disposte ad accettare le sfide di conformità.
Cecilia Bonefield-Dahl, direttrice generale di Digital Europe, ha avvertito che questo approccio ha portato a una scarsa regolamentazione,In futuro ciò ostacolerà la concorrenza tra Europa e Stati Uniti nel campo delle nuove società di intelligenza artificiale.“I costi aggiuntivi di conformità per le aziende dell’UE hanno ulteriormente ridotto i nostri profitti”, ha affermato."Mentre il resto del mondo assume programmatori, noi assumiamo avvocati."
Zhang Linghan ha affermato che l'entrata in vigore della "Legge sull'intelligenza artificiale" ha portato sfide multidimensionali alle aziende tecnologiche che operano in Europa e ha adottato normative corrispondenti in tutti gli aspetti dello sviluppo, del test, della distribuzione e dell'applicazione dei prodotti AI. A suo avviso, le aziende tecnologiche non devono solo aumentare gli investimenti nei costi di conformità per garantire l’istituzione di un sistema di conformità in linea con l’UE, ma devono anche continuare a valutare e monitorare il mercato di riferimento e apportare le modifiche necessarie nella ricerca e processo di sviluppo e progettazione funzionale per garantire il rispetto degli elevati standard di sicurezza e trasparenza richiesti dalla Legge sull’AI.
Ning Xuanfeng ritiene che la cosa più intuitiva sia che, per quanto riguarda i fornitori di sistemi di intelligenza artificiale ad alto rischio, l'impatto della "Legge sull'intelligenza artificiale" si rifletterà almeno nei costi di conformità delle entità pertinenti per adattarsi ai requisiti normativi pertinenti in altre parole, gli enti interessati potrebbero non essere nemmeno in grado di continuare a fornire i relativi sistemi, il che potrebbe causare ulteriori perdite economiche corrispondenti.
Quindi, come dovrebbero rispondere le aziende cinesi di intelligenza artificiale?
Zhang Linghan lo ha suggeritoLivello di conformità, le imprese cinesi dovrebbero in primo luogo valutare in modo completo i requisiti della "Legge sull'intelligenza artificiale", adeguare tempestivamente e dinamicamente le strategie di conformità e istituire sistemi di gestione della conformità interna, in secondo luogo, dovrebbero migliorare le proprie capacità di innovazione tecnologica e mirare alle caratteristiche tecniche e alle funzioni dei prodotti dei sistemi di intelligenza artificiale .Sviluppare piani di rischio pertinenti;infine,La cooperazione e gli scambi internazionali dovrebbero essere rafforzati,Prestare particolare attenzione alla legislazione estera e agli sviluppi delle forze dell’ordine per migliorare la competitività internazionale.
Permit ritiene che l’UE non riuscirà a riprodurre l’effetto “Bruxelles” del GDPR. Ci sono tre prerequisiti per il successo del GDPR: il primo è un’ampia giurisdizione, il secondo sono requisiti legali di standard elevato e il terzo sono sanzioni elevate. Allo stato attuale, sebbene la legge sull’intelligenza artificiale sia coerente con il GDPR in questi tre aspetti, una differenza importante è che i dati devono fluire oltre i confini e i sistemi di intelligenza artificiale possono essere suddivisi. La fluidità dei dati consente alle autorità di regolamentazione di avere indirettamente un impatto globale controllando l’afflusso e il deflusso di dati nell’UE, ma ciò non può riflettersi nella regolamentazione dell’IA.Le aziende di intelligenza artificiale possono creare mercati completamente divisibili e non hanno bisogno di rispettare le norme dell’UE quando sviluppano l’industria dell’IA al di fuori dell’UE.
Come promemoria sulla licenza, è importante notare che ci sono due esenzioni nella legge sull’IA: una è l’esenzione per la ricerca e lo sviluppo dell’IA. Molte aziende possono svolgere attività di ricerca e sviluppo nell’UE e fornire servizi al di fuori dell’UE. La seconda è l’esenzione open source, che limita solo alcuni sistemi di intelligenza artificiale closed source. Ad esempio, Google può influenzare indirettamente prodotti e servizi nel mercato dell’UE attraverso l’intelligenza artificiale open source.
Xu ha anche sottolineato che il GDPR conferisce agli individui diritti molto forti, e questi diritti privati hanno spinto individui e ONG ad avviare azioni legali per ottenere la supervisione attraverso il contenzioso. La "legge sull'intelligenza artificiale" stabilisce sostanzialmente la responsabilità del prodotto dei sistemi di intelligenza artificiale.Agli individui non vengono concessi nuovi diritti, quindi la loro applicazione può basarsi solo sull'applicazione amministrativa dell'UE. Sulla base del principio di sovranità, l'applicazione rilevante può effettivamente essere effettuata solo all'interno dell'UE, il che rappresenta anche una sfida all'influenza globale dell'IA. Legge.
Tuttavia, Sun Yuanzhao, uno studioso di diritto negli Stati Uniti, ritiene che i requisiti di conformità della "Legge sull'intelligenza artificiale" possano causare un certo grado di disagio alle operazioni delle imprese, ma questo è il caso di qualsiasi requisito di conformità. Da un punto di vista positivo, ciò può evitare in una certa misura gravi incidenti di sicurezza e, se sfortunatamente si verifica un incidente, possiamo raccogliere idee nel più breve tempo possibile per scoprire insieme il problema e la soluzione. Ciò aiuterà anche a stabilire un la fiducia della società e promuovere lo sviluppo sano e ordinato del mercato complessivo.