notizia

rafforzare la protezione delle informazioni per prevenire il rischio di crimini deepfakes

2024-09-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

recentemente, in corea del sud è arrivata la notizia che "circa 220.000 autori hanno utilizzato la tecnologia di falsificazione profonda per cambiare i loro volti per creare contenuti osceni su donne non specificate e diffonderli ampiamente". falsificazione. tornando di nuovo agli occhi del pubblico.
man mano che la ricerca e lo sviluppo dell'intelligenza artificiale (ai) continuano ad approfondirsi, la tecnologia del deepfaking è diventata sempre più matura. la sua alta fedeltà, l'inclusività tecnica, il basso costo, la rilevanza personale e altre caratteristiche hanno portato un enorme valore d'uso, dall'ai "digitale". la sostituzione delle immagini cinematografiche e televisive con nuove riprese, le prospettive di applicazione della tecnologia deep fake in alcuni settori stanno diventando sempre più diffuse.
tuttavia, essendo un’affilata “arma a doppio taglio”, pur godendo dei dividendi della tecnologia deepfake, non possiamo ignorare i suoi enormi rischi potenziali che potrebbero rendere i criminali più efficienti, più nascosti e più dannosi per la società. a livello individuale, la tecnologia deepfake può consentire alla vittima di rubare la sua immagine a scopo di lucro senza il suo consenso, il che costituisce una violazione dei diritti di ritratto personale. inoltre, la tecnologia deepfake può essere utilizzata anche dai truffatori per camuffarsi. ad esempio, all'inizio di quest'anno il personale finanziario di un'azienda di hong kong è stato derubato di 200 milioni di dollari di hong kong da manager sotto mentite spoglie. per le celebrità e i personaggi politici, la tecnologia deep fake può causare danni sociali e distruttivi ancora maggiori. l'attrice americana taylor swift una volta è stata modificata con photoshop in foto indecenti e ampiamente diffuse sulle piattaforme social. ciò non solo ha causato gravi danni alla sua immagine personale e commerciale, ma ha anche sconvolto l'ordine sociale e pubblico. inoltre, la tecnologia deepfake può essere utilizzata anche per falsificare prove, incidendo sulla credibilità di prove come foto e video, interferendo così con il giudizio dei giudici e ostacolando la giustizia.
per prevenire i rischi della tecnologia deep fake, la prima priorità è rafforzare la protezione delle informazioni biometriche personali. dal punto di vista della governance dei dati, il processo di produzione del deepfake è principalmente suddiviso in tre fasi: acquisizione dei dati (principalmente informazioni biometriche) - elaborazione dei dati - emissione dei dati (emissione di contenuti falsi). l'abuso della tecnologia deepfake consiste essenzialmente nell'ottenere informazioni biometriche di altri senza autorizzazione o consenso, per poi utilizzare queste informazioni per la falsificazione dell'identità. pertanto, per migliorare il meccanismo di protezione delle informazioni biometriche personali, dovremmo controllare rigorosamente l’input e l’output di informazioni profondamente false, in modo da ottenere la governance della fonte e il controllo del punto finale.
in primo luogo, dobbiamo rafforzare il meccanismo di “autorizzazione alla conoscenza” quando raccogliamo informazioni biometriche. poiché le informazioni biometriche personali hanno le caratteristiche di "unicità" e "immutabilità", una volta trapelate e utilizzate in modo improprio, causeranno gravi danni all'interessato e avranno un impatto duraturo. pertanto, dovrebbe essere raggiunto il massimo livello di protezione delle informazioni personali essere applicato. secondo la "legge sulla protezione delle informazioni personali della repubblica popolare cinese" e le pertinenti disposizioni legali, la notifica è esentata solo in circostanze specifiche basate su esigenze di sicurezza nazionale e pubblica, indagini penali e procedure giudiziarie, ecc. fatta eccezione per le circostanze di cui sopra, qualsiasi soggetto deve attuare rigorosamente il meccanismo di "autorizzazione alla conoscenza" durante la raccolta e l'utilizzo di informazioni biometriche personali. nessuna raccolta è consentita senza il consenso esplicito. d’altro canto, occorre chiarire che le informazioni che un individuo divulga online non significano che egli o lei acconsenta al ritrattamento dei dati biometrici personali. attualmente gli scenari di applicazione commerciale dei deep fake sono numerosi. è necessario dissipare l'equivoco degli operatori che "accedono liberamente alle informazioni online" e adempiere ai loro obblighi di notifica. inoltre, gli utenti delle informazioni devono garantire l'efficacia della notifica. non deve solo contenere informazioni specifiche come l'utente, lo scopo della raccolta, il comportamento del trattamento e il flusso di informazioni, ma deve anche adottare un metodo di notifica sufficientemente evidente, come una finestra pop-up con un limite di tempo obbligatorio, ecc.
in secondo luogo, migliorare il meccanismo di supervisione e tracciabilità della piattaforma. le piattaforme dovrebbero concentrarsi su aree in cui i deep fake sono ampiamente utilizzati, come la creazione secondaria di immagini della vita reale, e rafforzare la supervisione e la tracciabilità attraverso una combinazione di revisione tecnica e revisione manuale, come la verifica rigorosa se le opere di seconda generazione dispongono di autorizzazione registrazioni degli interessati utilizzati, ecc. se si scopre che certificati di autorizzazione non autorizzati o contraffatti vengono utilizzati come informazioni su altri, la piattaforma dovrebbe vietarne la diffusione e adottare misure restrittive corrispondenti, come il divieto di account.
in terzo luogo, stabilire un meccanismo di responsabilità e punizione più serio attraverso una legislazione mirata. per quanto riguarda la falsificazione di informazioni sull'identità, il diritto penale del mio paese prevede attualmente i reati di frode e furto d'identità. gli elementi del primo reato includono la finzione che l'obiettivo sia un membro del personale di un'agenzia statale e la frode di proprietà, onore, trattamento, sentimenti, ecc.; il secondo mira ai diritti di identità in procedure specifiche come gli esami; il reato di violazione dei dati personali dei cittadini non comprende "l'uso illegale delle informazioni biometriche". ciò significa che, secondo la legge attuale, è difficile combattere efficacemente il caos causato dai portavoce deep fake dal punto di vista della criminalizzazione basandosi semplicemente sui reati di frode e furto d’identità. pertanto, in futuro sarà necessario aggiungere nuovi reati per regolamentare in modo specifico il comportamento di furto dell'identità altrui. in questo ambito, la legge statunitense prevede che "il trasferimento, l'uso o l'appropriazione indebita dei dati identificativi di altre persone saranno trattati come un furto d'identità", il che può fornire un riferimento certo per il nostro paese. in futuro il diritto penale del mio paese potrebbe includere anche il reato di "furto d'identità" per chiunque utilizzi dati biometrici altrui senza il consenso dell'interessato e le circostanze siano gravi (come il tasso di clic o il numero di accessi). 500 volte), sarà assimilato al reato di furto d'identità. se è coinvolto anche in altri reati (come la frode), verrà trattato come un crimine.
la lama affilata deve essere rinfoderata e la bestia deve essere ingabbiata. la tecnologia deep fake ha buone prospettive di applicazione, ma l’istituzione di un sistema completo di applicazione, supervisione e punizione è il prerequisito affinché diventi davvero uno strumento utile per l’umanità. a questo proposito, tutte le parti interessate devono mettere il sistema al primo posto, delimitarne i confini con un solido sistema giuridico, limitarne l’applicazione con un controllo efficiente, guidarne lo sviluppo con valori ed etica corretti, raggiungere l’obiettivo della tecnologia al servizio delle persone e garantire che la falsificazione profonda è una la tecnologia è sulla strada giusta per apportare benefici all'umanità. (gli autori sono rispettivamente un ricercatore presso il centro di ricerca provinciale sullo sviluppo digitale e sulla governance di zhejiang e un pubblico ministero presso la procura popolare della contea di pingyang, provincia di zhejiang)
segnalazione/feedback