notizia

"AI undressing" dà la caccia alle celebrità femminili di Internet e produce segretamente gli esperti della catena industriale raccomandano di promuovere la tecnologia anticontraffazione fotografica

2024-08-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

"Qualche tempo fa, qualcuno ha inviato un messaggio privato dicendo di aver visto la mia foto e mi ha chiesto se potevo rispondere al telefono in privato. Ho cercato attentamente e ho scoperto che la cosiddetta foto è stata sintetizzata dall'intelligenza artificiale. Dopo aver sperimentato questo, il blogger Xiao K (pseudonimo) ha ancora paure persistenti.

Negli ultimi anni, la tecnologia dell’intelligenza artificiale è gradualmente entrata nella vita di un numero sempre maggiore di persone, ma anche alcune persone con idee distorte hanno visto opportunità di business. Un'indagine condotta dal giornalista di Beijing News Shell Finance ha scoperto che attualmente ci sono molti gruppi fotografici di "spogliarsi dell'intelligenza artificiale" che vendono celebrità e attrici di Internet sulla piattaforma di prodotti in nero e grigio. Secondo i professionisti del settore nero e grigio, 5 yuan possono "togliersi i vestiti" e 20 yuan possono ottenere il "cambio di volto video". In questa catena industriale ci sono anche professionisti che attirano traffico attraverso foto accattivanti e poi realizzano profitti attraverso i servizi di "appartenenza a gruppi". Inoltre, ci sono autori di video su piattaforme come Bilibili e Xiaohongshu che attirano l'attenzione con titoli come "AI Undressing Tutorial".

A questo proposito, Zhao Hu, un partner dello studio legale Zhongwen di Pechino, ha affermato che vendere immagini di un'intelligenza artificiale che si spoglia o che cambia il volto violerebbe le disposizioni della legge punitiva dell'amministrazione di pubblica sicurezza e gli autori del reato dovranno affrontare sanzioni amministrative di detenzione o multe. , e può anche essere ritenuto penalmente responsabile. Se le immagini non vengono vendute ma solo diffuse, se le circostanze sono gravi, costituirà comunque il reato di diffusione di materiale osceno e verrà indagata per corrispondente responsabilità penale a norma di legge. Si sospetta che la tecnologia didattica aiuti o favorisca i criminali. Inoltre, le azioni di rimozione degli indumenti e di cambio del volto dell’IA effettuate dagli autori comportano anche la violazione delle informazioni personali dei cittadini.

"Non esiste alcuna differenza essenziale tra l'utilizzo dell'intelligenza artificiale per la falsificazione profonda e la falsificazione tecnica tradizionale, ma l'efficienza è molto più elevata rispetto ai metodi di falsificazione tradizionali e la soglia tecnica è molto più bassa, rendendo facile per la gente comune raggiungerla, e "funziona" ' di profonda falsificazione inonderà ulteriormente Internet." Pei Zhiyong, direttore del Centro di ricerca sulla sicurezza industriale del gruppo Qi'anxin, ha dichiarato al giornalista di Beijing News Shell Finance che la tecnologia anticontraffazione per foto e video dovrebbe essere esplorata e promossa attivamente.

Le celebrità di Internet multipiattaforma si incontrano per "spogliarsi" per attirare traffico: foto personalizzate da 5 yuan

Dopo una semplice indagine, Little K ha finalmente scoperto l'origine della fuga di foto: qualcuno ha usato le sue foto di "spogliarsi con l'intelligenza artificiale" per attirare traffico su piattaforme social straniere e siti web pornografici e per vendere servizi di editing di immagini tramite intelligenza artificiale.

L’esperienza del piccolo K non è unica. Già nel marzo dell'anno scorso, una foto scattata da un blogger Xiaohongshu in metropolitana è stata "spogliata" dall'intelligenza artificiale e diffusa in un gruppo WeChat. Nella sezione commenti di questo blogger, molte donne si sono lamentate di esperienze simili, empatizzando l'una con l'altra e incapaci di nascondere i propri sentimenti.

I giornalisti di Shell Finance hanno cercato indizi e hanno trovato un venditore impegnato nello "stripping dell'intelligenza artificiale". L'altra parte ha detto che se fornisci una foto, puoi fornire un servizio di "rimozione dei vestiti" per altri 5 yuan. Se la foto non riesce a ottenere l'effetto, contattaci per cambiare la foto. Inoltre, puoi anche ricevere un "video cambio volto" per 20 yuan.

Il venditore ha detto: "Ci sono stati troppi ordini di 'spogliarsi' di recente e non posso nemmeno preoccuparmi di fare uno scambio di volti".

Screenshot della cronologia della chat tra il reporter di Beijing News Shell Finance e il venditore di "AI Stripping".

L'abuso della tecnologia "AI undressing" nella pornografia può essere fatto risalire a un software rilasciato all'estero nel 2020. A causa di polemiche, è stato rapidamente rimosso dagli scaffali dallo sviluppatore. Nonostante ciò, questa tecnologia viene ancora utilizzata da alcuni criminali per fare soldi.

Nel giugno di quest'anno, la polizia di Pechino ha indagato su un caso in cui un tecnico che un tempo lavorava per una società Internet ha affermato che "l'intelligenza artificiale del computer può rimuovere i vestiti a un prezzo speciale" e "può essere utilizzata dalle persone intorno a te, celebrità di Internet e celebrità ", e così facendo hai guadagnato soldi extra. Ogni foto costa solo $ 1,50. Ha venduto immagini correlate a 351 persone tramite Internet, per un totale di quasi 7.000 immagini. Alla fine, è stato perseguito dalla Procura del Distretto Haidian di Pechino per aver distribuito materiale osceno a scopo di lucro.

Un'indagine condotta da un giornalista di Shell Finance ha scoperto che lo "spogliarsi dell'intelligenza artificiale" ha ora formato una catena industriale, inclusa la vendita di immagini profondamente false di intelligenza artificiale, "immagini P" di intelligenza artificiale pagate di foto normali e l'insegnamento di "tecniche" per ottenere lo spogliarsi .

Inoltre, i prodotti neri e grigi hanno già preso di mira personaggi noti come celebrità femminili di Internet e celebrità femminili, e lo "stripping dell'intelligenza artificiale" è diventato una password del traffico.

I giornalisti di Shell Finance hanno scoperto che ci sono quasi 15.000 membri in questo gruppo su una piattaforma di prodotti neri e grigi chiamata "Internet Celebrity XX's Clothes Removal Exchange Group". Alcune famose celebrità femminili di Internet hanno per lo più foto di se stesse mentre vengono spogliate.

I giornalisti di Shell Finance hanno notato che questo gruppo inizialmente ha eseguito solo "AI stripping" su alcune foto di bellezze di celebrità di Internet, e in seguito si è gradualmente espanso ai circoli dell'intrattenimento e dello sport. Anche il metodo di profitto di questo tipo di "gruppo di comunicazione" è relativamente semplice. I professionisti del settore nero e grigio lanciano prima alcune foto nel gruppo per attirare i membri ad acquistare il servizio "gruppo di appartenenza".

Bilibili e Xiaohongshu hanno ancora "tutorial di svestizione dell'intelligenza artificiale" Avvocato: L'insegnamento della tecnologia può costituire un reato accessorio

Il giornalista ha scoperto che dopo che la tecnologia del modello di generazione dell'intelligenza artificiale è maturata, la corrispondente capacità di "spogliarsi con un clic" è stata "sviluppata" dagli utenti della rete a partire da un noto modello di generazione dell'intelligenza artificiale open source straniero e si è gradualmente diffusa. Sebbene con il miglioramento delle norme normative in vari paesi, il modello grande abbia istruzioni riviste come "spogliarsi". Tuttavia, i reporter di Shell Finance hanno cercato su Bilibili e Xiaohongshu e hanno scoperto che ci sono ancora alcuni video di "tutorial di svestizione dell'intelligenza artificiale" Anche se alcuni sono in realtà "cambiamenti d'abito" dell'intelligenza artificiale, significa anche che questo tipo di tecnologia è ancora dilagante.

Il giornalista ha cercato i risultati su un sito web di video utilizzando parole chiave correlate come "AI undressing".

A questo proposito, molte celebrità nazionali di Internet sono piuttosto indifese. Nel maggio dello scorso anno, una popolare blogger con più di 500.000 follower ha pubblicato una denuncia: "Molte persone hanno subito il furto di foto e la loro pubblicazione su reti esterne per attirare traffico e 'vendere video', così come per aver messo foto e altre immagini pornografiche su Internet. Le persone con un occhio attento possono capire a prima vista che queste voci di basso livello sono false. Di solito non ci faccio caso. È stato solo quando il numero dei messaggi privati ​​è aumentato improvvisamente e ho notato che il "ritmo" è aumentato. che dovevo smentire le voci.

Zhao Hu ha detto ai giornalisti di Shell Finance che vendere immagini di AI che si spogliano o cambiano volto viola le disposizioni della legge punitiva dell'amministrazione di pubblica sicurezza "Personalizzare" le immagini di AI che si spogliano a pagamento può costituire il crimine di creazione e vendita di materiale pornografico a scopo di lucro. Se le immagini non vengono vendute ma solo diffuse, se le circostanze sono gravi, sussisterà comunque il reato di diffusione di materiale osceno. La tecnologia didattica può costituire reato di favoreggiamento.

"Fare pagare per aiutare a 'personalizzare' le immagini di svestizione dell'IA può costituire il crimine di produrre, copiare, pubblicare, vendere e diffondere materiale osceno a scopo di lucro." Zhao Hu ha affermato che anche il comportamento dell'IA che si toglie i vestiti e cambia il volto comporta una violazione di dati personali dei cittadini. Una volta trapelate o utilizzate in modo improprio, queste informazioni rappresenteranno una seria minaccia per la privacy e la sicurezza personale.

"Deve essere chiaro che l'utilizzo di strumenti di intelligenza artificiale per la contraffazione è molto più efficiente rispetto ai metodi di contraffazione tradizionali, ma la soglia tecnica è molto più bassa. Come si suol dire, se metti in giro una voce, perderai le gambe se la confuti." Pei Zhiyong ha dichiarato a Shell Finance Reporters che attualmente i video e le immagini deepfake dell'intelligenza artificiale possono essere identificati attraverso mezzi tecnici professionali o perizie di esperti, ma anche il costo è molto elevato: “Con il continuo progresso della tecnologia, è inevitabile che l'autenticità dell'intelligenza artificiale. i video generati o sintetizzati non possono essere autenticati.

A suo avviso, anche se non è realistico impedire alle persone di utilizzare l’intelligenza artificiale per generare video o immagini false, ciò non significa che non ci sia nulla da fare riguardo a video o immagini false. “Il Paese dispone di metodi di gestione molto maturi per i video e le immagini pornografici online. Anche se la tecnologia non può essere utilizzata per identificare l'autenticità di un'immagine, può impedire la diffusione di contenuti pornografici dalla piattaforma e individuare la fonte della diffusione di contenuti pornografici. contenuto e attuare misure repressive".

Pei Zhiyong ha affermato che le piattaforme Internet non possono perseguire il traffico in modo unilaterale, ma dovrebbero partecipare attivamente alla governance della rete sotto la guida delle leggi corrispondenti e limitare efficacemente l'ambito di diffusione delle informazioni rilevanti. Le informazioni principali non verificate dovrebbero essere contrassegnate con etichette "non verificate" a un livello moderato ridurre il rischio che il grande pubblico venga ingannato.

Pei Zhiyong ritiene che la tecnologia anticontraffazione per foto e video debba essere esplorata e promossa attivamente "Ad esempio, se per scattare una foto viene utilizzato un telefono cellulare specifico di una determinata marca, modello e numero di serie, il file della foto avrà. una stringa di testo invisibile a occhio nudo ma riconoscibile dalla macchina. Codice di verifica crittografato Se qualcuno modifica questa foto, sia che si tratti di una modifica AI o di una modifica manuale, il sistema di verifica può riconoscere che non si tratta dell'immagine originale . Questo metodo non è una nuova tecnologia, ma richiede una tecnologia di crittografia matura e una profonda divulgazione.

Sun Yue, fondatore e CTO di Beijing Core Shield Times Technology Co., Ltd., ha dichiarato in un'intervista con un giornalista di Shell Finance che la tecnologia di falsificazione profonda è dilagante e che le caratteristiche biometriche come voci e volti hanno perso la loro originale affidabilità attributi di autenticazione. Se si desidera prevenire i danni causati da essa attraverso la tecnologia, si raccomanda che le principali piattaforme di sistema rafforzino l’autenticazione dell’identità dei sistemi applicativi. Sono necessarie misure di autenticazione forti per resistere al rischio di falsificazione dell’identità, che può essere ottenuta attraverso l’identità a più fattori autenticazione, consapevolezza del rischio terminale, analisi dei big data, ecc. La tecnologia del prodotto, combinata con la modellazione del comportamento degli utenti, l'inferenza causale del grafico della conoscenza e altri mezzi, può resistere efficacemente ai rischi di identità causati dalla falsificazione profonda.

“In futuro, per un sano sviluppo dell’intelligenza artificiale, al fine di affrontare i rischi derivanti dalla tecnologia di falsificazione profonda, in primo luogo, il governo e le agenzie di regolamentazione del settore dovrebbero migliorare attivamente le leggi e i regolamenti pertinenti. In secondo luogo, aumentare la ricerca e lo sviluppo del rilevamento di contraffazioni profonde, della filigrana digitale e di altre tecnologie. Inoltre, i dipartimenti competenti e i mezzi di informazione dovrebbero anche aumentare la propaganda antifrode, migliorare la consapevolezza della sicurezza delle persone e lavorare insieme per proteggere la sicurezza personale e patrimoniale delle persone. ," ha detto Sun Yue ai giornalisti di Shell Finance.

E-mail di contatto del giornalista: [email protected]

Il giornalista di Beijing News Shell Finance, Luo Yidan, l'editore Wang Jinyu, corregge le bozze di Yang Li