notizia

L’intelligenza artificiale rende la diffusione delle voci più semplice e più “scientifica”?

2024-07-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Fonte: Stato di diritto quotidiano

Il giornalista Zhang Shoukun

"Ci sono le immagini e la verità, ed è tutto certificato da esperti."

Recentemente, la cittadina di Tianjin Li Meng (pseudonimo) ha avuto un'accesa discussione con sua madre a causa di un "articolo scientifico popolare": sua madre credeva fermamente che l'articolo contenesse video, immagini e conclusioni di ricerche tratte da vari cosiddetti medici ed équipe mediche. Potrebbe essere falso; Li Meng ha identificato attentamente l'articolo e ha scoperto che l'articolo è stato generato dall'intelligenza artificiale e anche la piattaforma ha smentito la voce, quindi deve essere falsa.

Il contenuto di questo articolo riguarda i gatti: c'era una ragazza che stava giocando con un gatto e si ammalò di una malattia terminale chiamata "malattia". In seguito, tutta la sua persona divenne irriconoscibile. Fu proprio a causa di questo articolo che la madre di Li Meng si oppose fermamente all'idea di allevare un gatto perché aveva paura che anche lei avrebbe sofferto di "malattie". Li Meng non poteva ridere o piangere per questo: "Spero davvero che mia madre possa usare meno Internet".

La madre di Li Meng non è l’unica a essere stata ingannata dalle voci sull’intelligenza artificiale. Recentemente, le agenzie di pubblica sicurezza in molti luoghi hanno pubblicato una serie di casi relativi all'uso di strumenti di intelligenza artificiale per diffondere voci. Ad esempio, l'agenzia che ha pubblicato notizie false sull'"esplosione di Xi'an" può generare da 4.000 a 7.000 notizie false. in un giorno al suo apice, con un reddito giornaliero di 1 Più di 10.000 yuan, e l'attuale controllore dell'azienda, Wang Moumou, gestisce 5 istituti di questo tipo con 842 conti operativi.

Gli esperti intervistati dai giornalisti del "Rule of Law Daily" hanno sottolineato che comodi strumenti di intelligenza artificiale hanno ridotto significativamente il costo della produzione di voci e aumentato l'ordine di grandezza e la diffusione delle voci. La diffusione di voci sull’intelligenza artificiale ha le caratteristiche di soglia bassa, produzione batch e difficoltà di identificazione. È urgente rafforzare la supervisione e tagliare la catena di interessi che sta dietro ad essa.

Usare l’intelligenza artificiale per fabbricare notizie false

Si diffuse rapidamente e molte persone furono ingannate

Il 20 giugno, la polizia di Shanghai ha emesso un avviso secondo cui due operatori di marketing del marchio hanno fabbricato false informazioni come "pugnalare qualcuno alla stazione della metropolitana di Zhongshan Park" per guadagnare popolarità. Il personale interessato è stato detenuto amministrativamente dalla polizia. Nel rapporto un dettaglio ha attirato l’attenzione: un contraffattore ha utilizzato un software di intelligenza artificiale per generare tecnologia video e ha fabbricato informazioni false, come ad esempio falsi video di attacchi alla metropolitana.

Il giornalista ha scoperto che negli ultimi anni l'uso dell'intelligenza artificiale per diffondere voci è avvenuto frequentemente e si diffonde molto rapidamente. Alcune voci hanno causato notevole panico e danno sociale.

L'anno scorso, nel caso di una ragazza scomparsa a Shanghai, una banda ha maliziosamente inventato voci come "il padre della ragazza è il suo patrigno" e "la ragazza è stata portata a Wenzhou" in modo "clickbait" e "gruppo shock". Il gruppo ha utilizzato strumenti di intelligenza artificiale e altri strumenti per generare contenuti rumorosi. Attraverso una matrice di 114 account, hanno pubblicato 268 articoli in 6 giorni, molti dei quali hanno ottenuto più di 1 milione di clic.

L’Ufficio per la sicurezza informatica del Ministero della Pubblica Sicurezza ha recentemente annunciato un caso. Dal dicembre 2023, un'informazione su "acqua calda che sgorga dal terreno nel distretto di Huyi, città di Xi'an" è stata spesso diffusa su Internet, con voci come "acqua calda che sgorga dal terreno a causa di un terremoto " e "a causa della rottura di tubazioni termiche interrate". Dopo l'indagine, le voci rilevanti sono state generate attraverso la pulizia del manoscritto AI.

Recentemente, "è scoppiato un incendio in un grattacielo residenziale a Jinan e molte persone si sono lanciate per scappare" e "un uomo che faceva ginnastica mattutina ha scoperto una persona vivente in una tomba vicino alla Montagna degli Eroi a Jinan"... Questi scandalosi "blockbuster" news" sono state ampiamente diffuse su Internet e hanno attirato molta attenzione. L'Amministrazione del Cyberspazio del Comitato del Partito Municipale di Jinan ha immediatamente smentito le voci attraverso la Piattaforma congiunta di confutazione delle voci su Internet di Jinan, ma molte persone erano ancora confuse dall'apparenza di "immagini e verità".

Un rapporto di ricerca pubblicato dal Centro di ricerca sui nuovi media della Scuola di giornalismo e comunicazione dell'Università di Tsinghua nell'aprile di quest'anno ha mostrato che tra le voci sull'intelligenza artificiale negli ultimi due anni, le voci economiche e aziendali rappresentavano la percentuale più alta, raggiungendo il 43,71%; l'anno scorso, voci economiche e aziendali Il tasso di crescita delle voci sull'intelligenza artificiale è pari al 99,91% e settori come il catering da asporto e la consegna espressa sono i più colpiti dalle voci sull'intelligenza artificiale.

Quindi quanto è facile usare l’intelligenza artificiale per creare una notizia falsa?

Il giornalista ha testato una varietà di popolari software di intelligenza artificiale sul mercato e ha scoperto che purché vengano fornite le parole chiave, è possibile generare immediatamente una "notizia" in pochi secondi, inclusi i dettagli dell'incidente, commenti e opinioni, seguire azioni di primo piano, ecc. Aggiungi l'ora e il luogo, le immagini e la musica di sottofondo e un notiziario che sembra reale e falso sarà completato.

Il giornalista ha scoperto che molte voci generate dall'intelligenza artificiale erano mescolate con contenuti come "secondo i rapporti", "i dipartimenti competenti stanno conducendo indagini approfondite sulla causa dell'incidente e adottando misure per effettuare riparazioni di emergenza" e "ricordando al generale pubblico a prestare attenzione alla sicurezza nella vita quotidiana". Le persone spesso hanno difficoltà a distinguerne l'autenticità dopo averlo pubblicato online.

Oltre alle notizie sull'intelligenza artificiale, agli articoli scientifici popolari, alle immagini, ai video doppiati e alle voci imitate dopo la sostituzione del volto, tutti questi possono essere generati utilizzando l'intelligenza artificiale. Dopo la messa a punto manuale e l'incorporazione di alcuni contenuti reali, diventeranno difficili da distinguere.

Zeng Chi, ricercatore presso il Centro per il giornalismo e lo sviluppo sociale della Renmin University of China, ha affermato che la natura di giunzione dell’“intelligenza artificiale generativa” ha una forte affinità con le voci. Entrambi stanno “creando cose dal nulla” – creando informazioni che sembrano reale e ragionevole. L'intelligenza artificiale ha reso la diffusione di voci più semplice e più "scientifica". L'intelligenza artificiale riassume schemi e unisce trame basate su eventi importanti e può creare rapidamente voci che soddisfano le "aspettative" delle persone e si diffondono più velocemente.

"Le piattaforme online possono utilizzare la tecnologia AI per rilevare in modo inverso la giunzione di immagini e video, ma è difficile censurare il contenuto. Al momento, le persone non hanno la capacità di intercettare completamente le voci, per non parlare del fatto che ci sono molte voci non verificate o informazioni non verificabili e ambigue ", ha detto Zeng Chi.

Contraffazione per guadagnare traffico

Sospettato di molteplici crimini

L’“efficienza nel diffondere voci” di alcuni software di intelligenza artificiale è sorprendente. Ad esempio, esiste un software falso in grado di generare 190.000 articoli al giorno.

Secondo la polizia di Xi'an che ha sequestrato il software, ha estratto gli articoli salvati dal software per 7 giorni e ha scoperto che il numero totale superava 1 milione, coprendo notizie di attualità, temi sociali caldi, vita sociale e altri aspetti. Gli utenti dell'account pubblicano queste "notizie" sulle piattaforme pertinenti in modo organizzato, quindi utilizzano il sistema di ricompensa del traffico della piattaforma per realizzare profitti. Al momento, gli account coinvolti nel caso sono stati bloccati dalla piattaforma e anche i relativi software e server sono stati chiusi. La polizia sta ancora indagando sul caso.

Dietro molti casi di diffusione di voci sull’intelligenza artificiale, le motivazioni di chi diffonde voci sono principalmente quelle di deviare il traffico e realizzare profitti.

"Usa l'intelligenza artificiale per produrre in serie copywriting popolare e all'improvviso diventerai ricco." "Lascia che l'intelligenza artificiale mi aiuti a scrivere articoli promozionali e potrò finire 3 articoli in 1 minuto." il singolo numero può facilmente produrre più di 500 al giorno Operazioni multi-account, i principianti possono iniziare facilmente”... La ricerca del giornalista ha scoperto che ci sono articoli simili sul “diventare ricchi” che circolano su molte piattaforme social, e ci sono molti blogger che spingono. nell'area commenti.

Nel febbraio di quest'anno, l'Ufficio di pubblica sicurezza di Shanghai ha scoperto che un breve video di un artista "sfortunato e morto con rimpianti" è apparso su una piattaforma di e-commerce, che ha attirato un gran numero di Mi piace e ripubblicazioni.

Dopo le indagini, il contenuto del video è risultato contraffatto. Dopo essere arrivato al caso, l'editore del video ha confessato di gestire un negozio online di specialità locali su una piattaforma di e-commerce. A causa delle scarse vendite, ha creato notizie false accattivanti per attirare traffico sul suo account del negozio online. Non sa come modificare i video, quindi utilizza la tecnologia AI per generare testo e video.

Zhang Qiang, un partner dello studio legale Beijing Yinghe, ha detto ai giornalisti che l'uso dell'intelligenza artificiale per fabbricare voci online, in particolare la fabbricazione e la diffusione deliberata di falsi pericoli, epidemie, disastri e informazioni di polizia, potrebbe essere sospettato del reato di fabbricazione e diffusione deliberata di informazioni false. sotto il diritto penale. Se danneggia la reputazione di un individuo o di un'azienda, può essere sospettato di diffamazione criminale e di danno alla credibilità e alla reputazione aziendale. Se colpisce il commercio di titoli azionari e di futures e perturba il mercato commerciale, può essere sospettato di aver fabbricato e diffuso informazioni false sul commercio di titoli e di futures ai sensi del diritto penale.

Continuare a migliorare il meccanismo di smentita delle voci

Etichettare chiaramente il contenuto sintetico

Al fine di controllare le frodi e il caos legati all’IA e approfondire la governance dell’ecosistema online, negli ultimi anni i dipartimenti e le piattaforme competenti hanno introdotto una serie di politiche e misure.

Già nel 2022, la Cyberspace Administration of China e altri hanno emanato il "Regolamento sulla gestione della sintesi profonda dei servizi di informazione su Internet", in cui si stabilisce che nessuna organizzazione o individuo può utilizzare servizi di sintesi profonda per produrre, copiare, pubblicare o diffondere informazioni vietati dalle leggi e dai regolamenti amministrativi. I servizi di Deep Synthesis si impegnano in attività vietate dalle leggi e dai regolamenti amministrativi, quali mettere in pericolo la sicurezza e gli interessi nazionali, danneggiare l'immagine del Paese, violare gli interessi pubblici e sociali, sconvolgere l'ordine economico e sociale, violare i diritti legittimi. e interessi degli altri, ecc. Ai fornitori e agli utenti dei servizi di sintesi profonda non è consentito utilizzare i servizi di sintesi profonda per produrre, copiare, pubblicare o diffondere informazioni su notizie false.

Nell'aprile di quest'anno, il Segretariato della Commissione Centrale per gli Affari del Cyberspazio ha pubblicato l'"Avviso sull'attuazione dell'azione speciale di "Ripulitura e rettifica del traffico illimitato e illimitato di 'Self-Media'", richiedendo il rafforzamento dell'etichettatura e della visualizzazione delle fonti di informazione . Se le informazioni vengono generate utilizzando tecnologie come l’intelligenza artificiale, devono essere chiaramente contrassegnate come generate dalla tecnologia. Qualsiasi contenuto che contenga finzione, deduzione, ecc. deve essere chiaramente etichettato come finzione.

Per i contenuti sospettati di utilizzare la tecnologia AI, alcune piattaforme pubblicheranno un promemoria di seguito che "si sospetta che il contenuto sia stato generato dall'intelligenza artificiale, si prega di controllare attentamente" e aggiungeranno chiaramente un'etichetta di finzione ai contenuti che contengono finzione, deduzione, ecc. ., e intraprendere "azioni" sugli account illegali" e altre misure. Alcuni sviluppatori di modelli di grandi dimensioni hanno anche affermato che filigraneranno il contenuto generato attraverso modelli di grandi dimensioni tramite impostazioni di sfondo per informare gli utenti.

Secondo Zhang Qiang, le persone non hanno ancora una comprensione sufficiente dell’intelligenza artificiale generativa e mancano di esperienza nel gestirla. In questo caso, è assolutamente necessario ricordare alle persone attraverso i media di prestare attenzione allo screening delle informazioni sull’intelligenza artificiale. Allo stesso tempo, è necessario aumentare gli sforzi di risposta a livello delle forze dell’ordine e indagare e correggere tempestivamente comportamenti come voci e frodi attraverso l’intelligenza artificiale.

Zheng Ning, direttore del Dipartimento di Giurisprudenza della Scuola di Gestione dell'Industria Culturale dell'Università della Cina, ritiene che l'attuale meccanismo di confutazione delle voci dovrebbe essere ulteriormente migliorato. Una volta identificata un'informazione come una voce, dovrebbe essere contrassegnata immediatamente inviato nuovamente agli utenti che hanno sfogliato la voce per confutarla. Suggerimenti per evitare che questa voce si diffonda ulteriormente e causi danni maggiori.

Vale la pena notare che alcune persone potrebbero non avere alcuna consapevolezza soggettiva della diffusione di voci, ma pubblicare solo contenuti sintetizzati dall'intelligenza artificiale su Internet. Di conseguenza, vengono ripubblicati in gran numero e molte persone ci credono, causando così danni.

A questo proposito, Zeng ritiene che il modo più semplice per prevenirlo sia formulare normative attraverso i dipartimenti o le piattaforme competenti, e tutti i contenuti sintetizzati dall'intelligenza artificiale devono essere contrassegnati con "questa immagine/video è sintetizzato dall'intelligenza artificiale".