notizia

riappare la stanza n in corea del sud! un gran numero di donne i cui volti sono stati modificati dall’intelligenza artificiale hanno chiesto aiuto su weibo, coinvolgendo 500 scuole e più di 220.000 persone partecipanti.

2024-08-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

nell'opera "ghost in the shell" della fine del secolo scorso, motoko, il cui intero corpo fu trasformato in un corpo protesico, dubitava che esistesse ancora. il corpo, la memoria e le relazioni con altre persone, quando queste cose possono essere replicate, non possono essere usate come argomento a favore della vita fisica.

quando la cantante ai è diventata popolare, anche stefanie sun ha espresso un concetto simile nella sua risposta. non sei speciale, sei già prevedibile e sfortunatamente sei anche personalizzabile.

possiamo aggiungere che chiunque può essere descritto e generato dall'intelligenza artificiale, anche se non ha mai fatto qualcosa.

lu xun ha davvero detto che quando ha visto le maniche corte, ha subito pensato alle braccia bianche. l'immaginazione umana è comune. non sorprende che ogni volta che c'è un nuovo sviluppo nella tecnologia, un certo percorso verticale verrà sviluppato in modo sempre più maturo: la pornografia.

la corea del sud, che una volta sconvolse il mondo a causa della room n, sta ora sperimentando la versione 2.0.

violenza della gente comune contro la gente comune

nell'incidente precedente nella stanza n, l'autore del reato ha creato più chat room sul software di messaggistica istantanea crittografato telegram e ha pubblicato contenuti di sfruttamento sessuale. questo incidente è avvenuto principalmente su telegram.

la differenza principale tra i due è il mezzo del crimine: uno è la fotografia segreta e l'altro è il deepfake.

conosciamo già deepfake, che utilizza l'intelligenza artificiale per generare video, audio o immagini apparentemente reali per simulare cose che non sono realmente accadute.

i deepfake sono comunemente utilizzati nell’industria dell’intrattenimento e nei politici, ma vengono anche controllati da persone comuni e utilizzati per danneggiare altre persone comuni.

gli autori di room n 2.0 hanno esteso i loro artigli ai loro familiari, colleghi e compagni di classe. molte chat room di telegram sono organizzate per scuola o regione, in modo che i membri del gruppo abbiano conoscenze comuni e argomenti simili.

▲chat room presso il campus universitario

oltre alle donne che li circondano, anche le celebrità femminili sono l'obiettivo della loro caccia. alcune chat room sono addirittura suddivise in tipi di occupazione, tra cui insegnanti, infermieri, soldati, ecc.

l'hankyoreh daily ha riferito che una chat room di telegram con 227.000 partecipanti aveva bisogno solo di foto di donne per generare contenuti deepfake in 5-7 secondi.

qual è il concetto di 220.000? la corea del sud avrà solo 230.000 neonati nel 2023 e la sua popolazione totale supererà solo i 50 milioni.

questa chat room ha un robot che combina foto femminili in foto di nudo e può regolare il seno. dopo che l'utente entra nella chat room, apparirà un messaggio nella finestra della chat: "ora invia le foto femminili che ti piacciono".

▲ screenshot della chat room, che spiega come utilizzare deepfake

il numero dei partecipanti è scandaloso, forse anche a causa della bassa "soglia di ingresso": i link si trovano cercando parole chiave specifiche su x (ex twitter).

questa chat room ha anche stabilito un modello di monetizzazione. le prime due foto sono gratuite, poi è previsto il pagamento di 1 diamante (0,49 usd, circa 3,47 rmb) per foto. i pagamenti possono essere effettuati solo con valuta virtuale per l'anonimato. se inviti amici, puoi anche ottenere dei crediti gratuiti.

ma ci sono anche alcune chat room che richiedono un "certificato di ammissione": se vuoi unirti al gruppo, devi prima inviare 10 foto di persone che conosci e superare il colloquio.

come “materie prime” possono essere utilizzati gli avatar del software di chat kakaotalk e le foto di instagram.

ciò che è ancora più terrificante è che gran parte delle vittime e dei carnefici sono adolescenti.

i volontari hanno creato una mappa aggiornata in tempo reale, che mostra in quali scuole si sono verificati i crimini. anche in una scuola femminile ci saranno delle vittime, perché i colpevoli non sono necessariamente compagni di classe.

non è ancora stato stabilito esattamente quante scuole siano state colpite. alcuni blogger hanno affermato che questa volta sono state coinvolte più del 70% delle scuole.

il 26 agosto, il "korea joongang daily" ha sottolineato di includere almeno circa 300 scuole in tutto il paese, comprese anche le scuole elementari. il 28 agosto, il rapporto del wsj ha ampliato il numero a circa 500 scuole.

un netizen si è lamentato nell'area commenti: "questa è fondamentalmente l'intera corea del sud..."

sebbene non esistano risultati chiari delle indagini su questo incidente, anche i dati passati possono illustrare la gravità della situazione.

secondo le statistiche del korea women's human rights institute, da gennaio ad agosto di quest'anno, un totale di 781 vittime di deepfake hanno cercato aiuto, di cui 288 minori, pari al 36,9%. il numero reale è probabilmente molto più alto di questo.

inoltre, l’agenzia nazionale di polizia sudcoreana ha dichiarato che dall’inizio del 2023, circa il 70% delle circa 300 persone accusate di aver prodotto e distribuito false foto di nudo erano adolescenti.

molte donne coreane sono andate su weibo per chiedere aiuto. non conoscevano il cinese e potevano solo scorrere il contenuto, trasmettendo impotenza e paura.

alcuni netizen si chiedono perché le donne coreane cercano aiuto su internet cinese. in realtà, non sono solo le donne coreane a parlare in altre lingue. oltre alla corea del sud, anche i media di singapore, turchia e altri paesi hanno riportato questo incidente.

credono che se vengono prestati attenzione e criticati dagli stranieri, i media riferiranno più attivamente e i dipartimenti competenti indagheranno più seriamente, invece di fingere di essere sordi e tenere le cose sotto silenzio.

alcune prove criminali e persino l'identità dell'iniziatore furono indagate dalle stesse donne coreane, in modo simile alla sala n di allora. fortunatamente, il presidente della corea del sud e il leader del partito di opposizione hanno espresso la loro posizione. il presidente della corea del sud yin xiyue ha proposto:

i deepfake sono un chiaro crimine sessuale digitale e li sradicheremo una volta per tutte.

i deepfake possono essere visti come uno scherzo, ma sono chiaramente atti criminali che utilizzano la tecnologia sotto la copertura dell’anonimato e chiunque può diventarne una vittima.

i server di telegram sono all’estero e il suo ceo è detenuto a parigi, rendendo difficili le indagini. la korea communications standards commission ha dichiarato di aver inviato una lettera chiedendo al governo francese di collaborare nelle indagini su telegram.

dopo aver attirato l'attenzione dell'opinione pubblica, i comportamenti correlati sono stati moderati. tuttavia, l'hankyoreh daily ha riferito che alcuni utenti senza scrupoli supereranno una "verifica dell'identità" più rigorosa e continueranno a fare deepfaking in chat room più private.

▲screenshot della chat room, gli utenti discutono dell'ingresso in una chat room più privata

contenuti falsi, danno reale

i deepfake non sono una novità, ma i loro danni sono raramente riconosciuti.

alcune donne in corea del sud hanno reso privati ​​i loro account sui social media o cancellato le foto pubblicate online nel tentativo di fare ammenda.

erano angosciati e dubbiosi. da un lato non sanno dove sono state condivise le loro foto e fino a che punto si sono diffuse. d’altra parte, non capiscono perché alle vittime viene chiesto di stare attente nel caricare foto invece di educare gli autori del reato.

quando una studentessa ha invitato la sua storia su instagram a “cancellare tutte le foto che hai caricato”, i ragazzi della stessa scuola avrebbero potuto dire: “sei troppo brutta per essere usata in queste cose”.

▲le osservazioni dell'autore del reato, secondo cui le donne sono troppo alte

su internet si sentono ancora voci del genere: "non so perché questo tipo di crimine causi così tanti danni". "se poche persone lo facessero da sole, il danno dovrebbe essere molto piccolo".

ma ciò che sperimentano le vittime è molto più che vedere i loro volti in un deepfake. gli autori del reato li insulteranno, diffonderanno le loro informazioni personali come indirizzi, numeri di telefono e carte d'identità degli studenti, diffonderanno voci sulla loro vita privata e li avvicineranno e molesteranno.

ciò che è ancora più terrificante è incontrare il “revenge porno”: gli autori minacciano di diffondere materiali deepfake per ricattare e danneggiare le donne, causando danni secondari più gravi.

▲uno youtuber coreano ha detto che le donne fanno storie, ma lui sa come proteggersi coprendosi

il korea herald ha riferito che song, una studentessa di 17 anni della scuola superiore della provincia di gyeonggi, condivideva online alcune foto di balli e brevi video. un giorno ha ricevuto un messaggio anonimo su instagram con tre foto esplicite: “i tuoi amici e i tuoi genitori comprendono questo lato della tua vita?”

queste foto sono tutte deepfake, ma sono quasi indistinguibili dalle immagini reali. l'incubo non è finito e i messaggi a cui risponde non faranno altro che rendere l'altra parte ancora più eccitata e avanzare ulteriori richieste.

▲screenshot dei messaggi di testo tra song e l'autore del reato, modificati e tradotti in inglese secondo la richiesta di song

nessuno può condividere il dolore. alcune vittime hanno addirittura affermato: "il mondo come lo conoscevo è crollato".

questo non equivale al prezzo pagato dall'autore del reato.

▲schermate della chat room, alcuni commenti osceni, come "puoi impostare la posa in cui vuoi fare le foto, è fantastico"

l'incidente non è stato ancora risolto, ma la corea del sud ha già condannato deepfake, uno dei quali ha avuto il suo primo processo il 28 agosto.

dal luglio 2020 all'aprile di quest'anno, park ha rubato le foto dei volti di donne vittime come ex studentesse universitarie, ha prodotto 419 video pornografici deepfake e ne ha diffusi 1.735. è stato condannato a 5 anni di prigione.

le vittime hanno iniziato a correre in giro nel luglio 2021 prima di riuscire a portare in giudizio l'autore del reato, e park è stato processato nel maggio di quest'anno.

a causa di questo incidente deepfake su larga scala, le autorità sudcoreane competenti stanno valutando la possibilità di aumentare la pena detentiva massima da 5 a 7 anni.

▲le donne sudcoreane protestano contro i crimini sessuali

considerando che i crimini minorili deepfake sono molto comuni, ma ci sono lacune nella legge, la corea del sud sta misurando la pena massima per i colpevoli nella fase dell’istruzione obbligatoria.

ad oggi, il deepfake è ancora un’area grigia in molti luoghi e gli sforzi di protezione non riescono a tenere il passo con la velocità delle minacce.

ad esempio, negli stati uniti, se la vittima è un adulto, ogni stato ha disposizioni legali diverse, criminalizzandolo o avviando cause civili, ma attualmente non esiste una legge federale che vieti la produzione di pornografia deepfake.

▲screenshot della chat room, membri che chiacchierano di conoscenti comuni

uno dei motivi per cui la legislazione è difficile è che alcune persone credono che anche se il soggetto nell'immagine deepfake ti assomiglia, in realtà non sei tu, quindi la tua privacy non è realmente violata.

tuttavia, tutti sanno che, sebbene l’immagine sia falsa, il danno è reale.

la legge avanza lentamente e, allo stesso tempo, gli autori del reato che non si sono mai presentati hanno temporaneamente "interrotto le loro attività" e aspettano "un ritorno".

è così facile fare del male, i deepfakes sono rilevanti per tutti

la corea del sud non fa eccezione.

nel settembre 2023, nella città spagnola di almendralejo, un gruppo di ragazzi ha caricato le foto delle loro compagne di classe sui social media su uno strumento di intelligenza artificiale "one-click stripping". ci sono cinque scuole medie nella città e in almeno quattro di esse sono state diffuse "foto di nudo" di compagne di classe.

questo strumento può essere utilizzato tramite app mobile o telegram. le vittime sono almeno 30, principalmente studentesse tra i 12 ei 14 anni.

la maggior parte degli iniziatori li conosceva ed erano anche minorenni. erano almeno 10, alcuni anche sotto i 14 anni, e non potevano affrontare accuse penali.

▲una madre invita altre vittime a farsi avanti

hanno creato chat di gruppo su whatsapp e telegram per diffondere queste "foto di nudo", e hanno minacciato le vittime tramite instagram di estorcere "riscatto" e foto di nudo reale.

una situazione simile si è verificata in una scuola superiore nel new jersey, negli stati uniti. circa 30 vittime sono state scattate dai loro compagni di classe durante le vacanze estive.

il preside ha assicurato che tutte le foto erano state cancellate e non sarebbero state più diffuse. l'iniziatore è stato sospeso da scuola per alcuni giorni e riportato sul "luogo del delitto" come se niente fosse.

il deepfake è emerso per la prima volta nel 2017 su reddit, la "versione americana di tieba". la forma principale è quella di sostituire i volti delle celebrità con protagonisti di video pornografici o di falsificare personaggi politici.

da un punto di vista tecnico, ci sono due percorsi principali: uno è il percorso codificatore-decodificatore, che sostituisce una faccia con un'altra comprimendo e ricostruendo l'immagine; l'altro è il percorso generatore-discriminatore (ovvero generative adversarial networks (gan), generare immagini realistiche attraverso la formazione contraddittoria.

▲gan

oggi il deepfake è un concetto più ampio, non più limitato alla sostituzione del volto originale, lo usiamo per riferirci a qualsiasi atto di falsificazione della realtà attraverso mezzi tecnologici.

dietro le quinte si nascondono principi tecnici complessi, davanti agli utenti ci sono interfacce "fuori dagli schemi". anche gli adolescenti possono creare informazioni false a piacimento. il deepfake è degenerato da una tecnologia a uno strumento quasi senza soglia.

le app di "spogliarsi con un clic" richiedono solo una foto, un indirizzo e-mail e pochi dollari per togliere i "vestiti" di celebrità, compagni di classe e sconosciuti in lotti. le immagini utilizzate per "spogliarsi" provengono spesso da acquisizioni di social media. senza il consenso dell'editore, e poi lo diffonde anche a sua insaputa.

sulla base di un modello di diffusione open source addestrato su immagini di grandi dimensioni, gli utenti possono generare false foto esplicite di celebrità inserendo parole tempestive.

▲il modello ai di un'attrice di hollywood è stato scaricato migliaia di volte

i progetti github open source come deep-live-cam possono cambiare volto nelle chat video con solo una foto.

può essere difficile ingannare i giovani, ma non è necessariamente così per gli anziani. un tragico esempio è già accaduto nella realtà: un uomo di 82 anni negli stati uniti ha perso 690.000 dollari a causa della sua cieca fiducia nell'intelligenza artificiale. musk che ha ingannato le persone nel video.

▲ trasmissione in diretta di ai musk

nel luglio 2023, deutsche telekom ha pubblicato un annuncio sulla sicurezza dei dati dei bambini, invitando i genitori a condividere il meno possibile la privacy dei bambini su internet.

immagini, video e audio sono tutti deepfake. sebbene comprendiamo razionalmente che "vedere per credere" è diventato una cosa del passato, la nostra psicologia non lo ha ancora pienamente accettato e non abbiamo la corrispondente capacità di distinguere tutti potrebbe diventare una vittima.

la tecnologia può essere neutrale, ma le informazioni che le persone utilizzano per produrre la tecnologia non sono solo informazioni, ma anche armi usate per umiliare, stigmatizzare e acquisire un senso di superiorità. più il contenuto è volgare e bizzarro, più è facile diffonderlo. questo è vero fin dall'antichità.

cosa può fare la gente comune? almeno possiamo decidere come utilizzare la tecnologia, e possiamo anche scegliere quali informazioni produrre e diffondere, prestare attenzione alle vittime, deridere i carnefici e usare il nostro piccolo potere per promuovere il progresso delle leggi e dei concetti sociali.

dopo lo scambio di volti, perché la vittima ha cancellato le foto? perché le vittime si vergognano così tanto dopo essere state fotografate di nascosto? questa sembra essere una domanda a cui la tecnologia non può rispondere.