Le mie informazioni di contatto
Posta[email protected]
2024-08-17
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
[Rete di testo/osservatori Liao Yiheng]
Con l'avvento dell'era dell'intelligenza artificiale, le elezioni americane di quest'anno sono considerate da alcuni studiosi anche come il primo "uso su larga scala dell'intelligenza artificiale per influenzare gli elettori". Anche molti eventi accaduti in queste elezioni hanno confermato le opinioni di molti negli Stati Uniti si teme che l’intervento di grandi modelli linguistici nelle elezioni avrà un impatto negativo sul sistema democratico americano. Se l’incidente della registrazione deep fake dell’AGI nelle elezioni slovacche del 2023 è solo il primo caso di intervento dell’intelligenza artificiale nelle elezioni, allora le elezioni statunitensi in corso possono essere considerate come una grande battaglia dell’intervento dell’AGI nelle elezioni.
All'inizio di agosto, Trump ha accusato "la foto di migliaia di persone in attesa di Harris quando è scesa dall'aereo al raduno di Detroit è stata falsificata dall'intelligenza artificiale!" Sebbene sia stata negata dal team di Harris, comprese anche le squadre investigative di Reuters di diversi media ha rivendicato il nome di Harris. Il forte rumore al raduno di Harris era effettivamente vero, ma mostra anche che il popolo americano è molto nervoso per l’intervento della tecnologia AI nelle elezioni.
Il 7 agosto, ora locale, un gruppo di persone stava aspettando che il vicepresidente Kamala Harris e il governatore del Minnesota Tim Walz partecipassero a una manifestazione elettorale all'aeroporto Romulus nel Michigan. Donald Trump si è scagliato contro l’affluenza alle urne e ha fatto false affermazioni sulle foto dell’evento. Immagini su Internet
Per coincidenza, il 26 luglio di quest'anno, Musk ha condiviso un video profondamente falso su Harris sulla sua piattaforma X, con il testo "Questo è fantastico" e un'emoticon ridente. In questo video sono presenti molti materiali pubblicitari delle campagne precedenti del team della campagna Harris, nonché una narrazione di Harris sufficiente a provocare conflitti tra genere e razza negli Stati Uniti: "Sono una donna e una persona di colore. Se critichi tutto ciò che dico, se lo dici, allora sei sessista e razzista.
Il video ha ricevuto oltre 100 milioni di visualizzazioni in tre giorni e ha suscitato scalpore. In realtà, questo video non è stato girato dallo stesso Harris, ma è stato sintetizzato dall’intelligenza artificiale generativa ed era accompagnato dalla voce sintetizzata di Harris, che è abbastanza realistica. Ma Musk non ha etichettato il video come falso nel post.
Il team della campagna di Harris ha espresso serie proteste e ha sottolineato in una dichiarazione: "Questo incidente è un buon esempio di come immagini realistiche, video o video generati dall'intelligenza artificiale possano essere utilizzati mentre si avvicinano le elezioni presidenziali americane. Come le clip audio vengono utilizzate per prendere in giro e fuorviare la politica”.
Video ripubblicato da Musk sul suo social media X. Il video è stato sintetizzato dall'intelligenza artificiale generativa (AGI) e combinato con alcune informazioni reali sulla campagna per renderlo molto realistico. Immagini su Internet
In effetti, la storia dell’intervento della tecnologia AI nelle elezioni statunitensi è iniziata dall’inizio di quest’anno. Anche prima che Biden abbandonasse la gara, si è verificato un incidente in cui "AI Biden" ha interrotto le primarie del New Hampshire. Secondo rapporti pertinenti, il 21 gennaio di quest’anno alcuni elettori hanno ricevuto chiamate utilizzando la voce sintetizzata di Biden, chiedendo loro di salvare i loro voti per le elezioni finali di novembre e sostenendo che se avessero partecipato alle elezioni primarie del partito, non sarebbero più stati in grado di farlo. per partecipare alle elezioni finali. Più tardi, Hani Farid, un esperto di informatica forense presso l'Università della California, Berkeley, ha confermato che la voce del telefono era in realtà forgiata da una tecnologia di intelligenza artificiale "relativamente inferiore".
Successivamente, il 25 febbraio di quest'anno, Steve Kramer, consulente politico del candidato democratico alla presidenza e deputato Phillips, ha ammesso di aver assunto Carpenter e ha chiesto a Carpenter di inventare il software Baidu attraverso la voce di Deng e la pianificazione di questa tempesta telefonica L’appello agli elettori era solo quello di “ricordare al pubblico di guardarsi dalle applicazioni fuorvianti dell’intelligenza artificiale”.
Magic Carpenter ha descritto ai media il processo in cui gli è stato chiesto di creare un audio di "falsa chiamata Biden". Immagini su Internet
La sfida dell’intelligenza artificiale tra i due partiti alle elezioni americane è già iniziata. Il Partito Democratico ha anche notato l’audace e sofisticata esperienza del Partito Repubblicano nell’uso dell’intelligenza artificiale.
Nel marzo di quest’anno, le foto di Trump e degli elettori neri continuavano ad apparire sui social media americani. Una squadra investigativa del programma fattuale della BBC Panorama ha scoperto che il punto comune nelle immagini era che tutte raffiguravano persone di colore che sostenevano l’ex presidente Trump e suggerivano che avrebbero votato per il Partito repubblicano. Le immagini infatti avanzano una narrazione strategica: Trump è ora molto popolare nella comunità nera. Devi sapere che gli elettori neri sono la chiave della vittoria di Biden alle elezioni del 2020.
Naturalmente, queste immagini deepfake alla fine furono scoperte, ma durante il processo di diffusione, queste foto deepfake non avevano filigrane o annotazioni per indicare i loro attributi non reali. Sebbene alcuni netizen attenti possano individuare la distorsione nella lucentezza e nella trama di queste foto, non tutti hanno abbastanza energia e giudizio per identificarle.
Trump ha abbracciato un gruppo di donne nere. Successivamente è stato confermato che la foto era stata falsificata dall'intelligenza artificiale generativa. Immagini su Internet
Dopo le indagini, si è scoperto che alcune di queste foto provenivano da account che facevano satira su Trump, ma erano ampiamente diffuse dopo la pulizia, e alcune erano state generate dai fanatici sostenitori di Trump. L'autore di una delle immagini ha dichiarato alla BBC: "Non ho detto che fosse una foto reale". Questo tipo di risposta fa sentire le persone impotenti, perché prima che l'AGI generi foto profondamente false, la maggior parte delle persone si affida al giudizio di "vedere per credere".
Oltre alle false informazioni diffuse spontaneamente dai fanatici seguaci di Trump, anche la stessa campagna di Trump sta aumentando la sua attenzione e i suoi investimenti nel campo dell’intelligenza artificiale. I registri finanziari della campagna mostrano che il team di Trump, il Comitato Nazionale Repubblicano e i relativi comitati di raccolta fondi hanno pagato più di 2,2 milioni di dollari a società collegate come Campaign Nucleus, di proprietà dell’ex manager della campagna di Trump, Parscale. L'attività di Campaign Nucleus include l'utilizzo dell'AGI per generare e-mail personalizzate, analizzare un'ampia gamma di dati per misurare il sentimento degli elettori, trovare elettori influenzabili e amplificare i post sui social media di influencer "anti-woke". L’attenzione si concentra sull’utilizzo della tecnologia AI per analizzare i sostenitori delle missioni politiche per creare profili e cercare di manipolare le preferenze degli elettori attraverso programmi personalizzati.
Vale la pena ricordare che anche alcuni leader tecnologici hanno cambiato la loro posizione politica e hanno iniziato a sostenere Trump. Sembra essere una corsa a doppio senso. Una delle figure iconiche è Elon Musk. Dopo l’incidente con la sparatoria a Trump, Musk ha annunciato ufficialmente sulla sua piattaforma social X di sostenere la candidatura dell’ex presidente Trump e di essere disposto a fornire fondi per sostenere la sua campagna.
Sebbene il ritiro del sostegno di alcuni leader della Silicon Valley al Partito Repubblicano sia direttamente correlato alle carenze delle politiche sulla diversità, la ragione più ampia è dovuta anche alle loro considerazioni sul futuro dell’industria tecnologica. In breve, elementi come fondi e piattaforme di comunicazione sono profondamente legati al supporto della tecnologia AGI e hanno esercitato un potere inaspettato.
Il segreto di una scatola nera fittamente intrecciata
Avendo assistito alla capacità senza precedenti dell’AGI di confondere le acque nelle elezioni, non possiamo fare a meno di chiederci: qual è il meccanismo per l’intervento dell’AGI nelle elezioni?
Contenuti deep fake (Deepfakes) generati da AGI, inclusi testo, audio, immagini e video. Questi elementi intrecciano profondamente gli elementi informativi e cognitivi nella propaganda elettorale, e di fatto sono stati profondamente legati al modello di comunicazione politica. Inserendosi profondamente nel processo elettorale, l’AGI sfida le percezioni degli elettori, provocando effetti sia di rafforzamento che di shock, raggiungendo così lo scopo di manipolare gli elettori.
Quadro di analisi della propaganda elettorale statunitense Sun Chenghao: L'intervento dell'intelligenza artificiale generativa nella propaganda elettorale statunitense: percorsi, scenari e rischi, 2024-7. [3]
Il meccanismo della propaganda elettorale negli Stati Uniti si compone principalmente di tre fasi: input, elaborazione e output. Candidati e partiti politici conducono attività di campagna elettorale per vincere le elezioni. Questa attività è essenzialmente quella di persuadere gli elettori e consentire agli elettori di elaborare e digerire il contenuto della propaganda politica e, in definitiva, raggiungere lo scopo di consentire agli elettori di fare delle scelte.
Con il potenziamento approfondito dell'AGI, nel campo della propaganda elettorale statunitense, i processi tra cui la registrazione degli elettori, l'analisi dei dati degli elettori, l'analisi delle previsioni elettorali, la formulazione della strategia elettorale, il monitoraggio del processo elettorale, la fornitura di pubblicità e le risorse elettorali relative all'assistenza agli elettori, tutti hanno preso su nuove forme.
In termini di previsione elettorale, analisi dei dati degli elettori, formulazione di strategie elettorali e assistenza agli elettori, l’attuale performance dell’AGI è generalmente su una buona strada. Nello specifico, aiuta i team elettorali e i decisori ad analizzare la situazione elettorale in modo più rapido e accurato e a generare grafici in tempo reale. Aiuta i candidati ad analizzare i ritratti degli elettori e a formulare strategie di segmentazione approfondite. Allo stesso tempo, migliora il rapporto tra i candidati e gli elettori attraverso le risposte automatiche via e-mail dell'AGI e altri metodi. La qualità dell'interazione può migliorare l'effetto di feedback e fungere da enciclopedia elettorale per fornire agli elettori le informazioni elettorali necessarie e tempestive.
Ma sotto altri aspetti, l’applicazione approfondita dell’AGI ha ovviamente messo in luce alcuni problemi. Nella registrazione degli elettori, l’intenzione originaria dell’AGI è quella di aumentare l’affluenza alle urne generando attivamente e-mail o effettuando telefonate. Tuttavia, l’incidente della “telefonata di AI Biden” all’inizio dell’anno ha dimostrato che l’AGI può anche “brillare” nel disturbare il voto degli elettori.
In termini di monitoraggio del processo elettorale e diffusione della pubblicità, il significato positivo del potenziamento dell’AGI è quello di identificare attività anomale nel processo elettorale, prevenire frodi e attacchi alla rete, mantenere l’ordine delle elezioni, identificare gruppi suddivisi e fornire accuratamente informazioni elettorali a su questi elettori. Ma nell’incidente con la foto nera di Trump e nel precedente incidente con la registrazione slovacca, possiamo vedere che l’AGI gioca il ruolo opposto Il mantenimento dell’ordine e la consegna accurata si sono trasformati in una consegna dirompente e profondamente falsa.
Il danno causato dall'ecologia della campagna elettorale interrotta dall'AGI alla cognizione degli elettori si riflette principalmente in due aspetti: scuotere la cognizione degli elettori e rafforzare la cognizione degli elettori.
In termini di effetto destabilizzante, nell’incidente delle foto false di Trump e dei neri, al fine di conquistare i neri, in particolare i giovani neri, l’AGI ha contribuito a generare una serie di foto profondamente false. Attraverso il preciso posizionamento dell’AGI, queste foto profondamente false sono state silenziosamente rilasciate agli elettori, sfidando le precedenti percezioni degli elettori neri e influenzando i giovani elettori esitanti.
In termini di rafforzamento dell'effetto, per quanto riguarda l'informazione di propaganda stessa, la velocità di generazione dell'AGI può portare alla squadra elettorale il vantaggio propagandistico di un massiccio bombardamento di informazioni, e anche la qualità del copywriting può cogliere con maggiore precisione i "punti critici" degli elettori e degli elettori. attirare le loro donazioni. Inoltre, l’antropomorfismo dell’AGI, come i robot politici, può aiutare i partiti politici ad avvicinarsi agli elettori e ottenere comunicazioni e feedback efficienti.
Vale la pena notare che l’effetto di rinforzo flessibile dell’AGI e la capacità di generare enormi quantità di informazioni in un breve periodo di tempo e di diffonderle con precisione saranno rapidamente amplificati durante periodi specifici di comunicazione politica, causando facilmente la diffusione esplosiva di informazioni profondamente false. Queste situazioni si verificano spesso all'inizio delle elezioni e durante il periodo silenzioso delle elezioni, quando varie entità di propaganda non sono ancora entrate nella sede o sono state allontanate con la forza dalla sede della propaganda.
Il meccanismo attraverso il quale le informazioni elaborate dall’intelligenza artificiale generativa distruggono la cognizione degli elettori Sun Chenghao: L’intervento dell’intelligenza artificiale generativa nella propaganda elettorale degli Stati Uniti: percorsi, scenari e rischi, 2024-7. [3]
Inoltre, alcune AGI stesse hanno potenziali ideologie. Ad esempio, in un test è stato sottolineato che il famoso GhatGPT ha un'evidente posizione ideologica di sinistra. Neil Postman una volta menzionò un punto di vista analizzando la tecnologia dei media: "I media sono metafora". Credeva che i media stessi portassero potenti implicazioni e potessero cambiare il modo di pensare delle persone per ridefinire la realtà. Già durante il periodo delle “elezioni su Twitter” e della “governance di Twitter” di Trump, abbiamo sentito il potere dei media di plasmare gli elettori. Ora che l’AGI conferisce un forte potere alla piattaforma mediatica, questa metafora stessa può facilmente essere amplificata all’infinito.
Verso le elezioni cibernetiche
Nel marzo di quest’anno gli esperti competenti della Brookings Institution negli Stati Uniti hanno tenuto un dibattito offline per discutere i rischi posti dall’intelligenza artificiale e dalle false informazioni durante le elezioni. Ritengono che gli attuali rischi che l’AGI porta alle elezioni siano concentrati in tre aspetti: la profonda integrazione della legislazione, della tecnologia e dei meccanismi di comunicazione.
Seminario, da sinistra a destra sono Darrell M. West (Senior Fellow, Center for Technology Innovation), Soheil Feizi (professore associato, Dipartimento di informatica, Università del Maryland), Shana M Broussard (commissario della Commissione elettorale federale), Matt Perault ( University of North Carolina a Chapel Hill) Direttore del Campus Technology Policy Center) Schermata video
A livello legislativo, il governo federale degli Stati Uniti ovviamente non è pronto a legiferare contro l’interferenza dell’AGI nelle elezioni. La maggior parte della responsabilità ricade ancora sulla legislazione statale e sulle principali piattaforme mediatiche private.
Il 30 ottobre 2023, il presidente Biden ha firmato l’ordine esecutivo 14110 sullo “Sviluppo e uso sicuro, protetto e affidabile dell’intelligenza artificiale”. Questo ordine esecutivo rappresenta ad oggi l’approccio più completo alla governance dell’intelligenza artificiale negli Stati Uniti, coprendo la copertura aree che vanno dai nuovi standard di settore per la sicurezza dell’IA alla tutela della privacy, ai diritti civili, agli interessi dei lavoratori, all’innovazione tecnologica, all’uso dell’IA da parte del governo e alla leadership internazionale degli Stati Uniti.
In una certa misura, questo ordine esecutivo può essere considerato come una tabella di marcia per la futura legislazione nel campo della sicurezza dell’intelligenza artificiale negli Stati Uniti, contribuendo a evitare di ripetere la traiettoria divisiva della precedente governance e consentendo al lavoro normativo di ritornare da proposte sparse da parte degli Stati a il sistema federale in gestione. Tuttavia, questo “metodo di governance artificiale globale” è ancora agli inizi e i problemi causati dall’AGI nazionale nelle elezioni si stanno già manifestando.
A livello tecnico, sebbene alcune persone abbiano proposto di utilizzare filigrane digitali per identificare contenuti generati profondamente falsi, gli esperti affermano che questo è inaffidabile. Queste filigrane possono essere facilmente cancellate durante il processo di generazione dell'AGI e questa è una limitazione tecnica di base difficile da risolvere a breve termine. Il metodo più efficace al momento è sperare che il settore privato possa fornire in modo proattivo alcuni servizi di revisione. Sebbene ciò non sia sufficiente a risolvere il problema a fronte di una legislazione migliorata, può almeno svolgere un ruolo.
Per quanto riguarda l'influenza sul meccanismo di comunicazione, gli esperti presenti alla riunione hanno affermato che le false informazioni in realtà influenzano lo swing dal 5% al 10% degli elettori, e la stragrande maggioranza degli elettori ha già deciso il proprio campo fin dall'inizio. Su questo punto, altri esperti dicono che non bisogna essere troppo pessimisti sull’emergere di una disinformazione profonda:
Innanzitutto le notizie false rappresentano solo una piccola parte delle informazioni ricevute dalla gente comune. “Uno studio del 2020 ha rilevato che per l’americano medio, ogni giorno vengono trascorse circa 7,5 ore di tempo sui media, di cui circa il 14% è legato alle notizie, principalmente dalla televisione. Un altro studio recente ha stimato che per l’adulto americano medio per gli utenti di Facebook, anche nei mesi precedenti le elezioni americane del 2020, meno del 7% dei contenuti visualizzati era relativo alle notizie."
In secondo luogo, la profonda disinformazione esistente, secondo le ricerche, è concentrata principalmente tra un piccolo numero di americani. Ciò potrebbe essere correlato al bozzolo di informazioni causato dall'algoritmo, ma queste informazioni profondamente false di solito non sono in grado di raggiungere la stragrande maggioranza del pubblico online, soprattutto dopo che l'AGI ha contribuito a dividere profondamente il gruppo di utenti, la base di utenti corrispondente a informazioni specifiche diventa più piccola .
Oltre al rafforzamento della legislazione federale e alla promozione delle società tecnologiche per il controllo congiunto dell'AGI, anche la promozione delle "disclaimer", la richiesta ai team elettorali di aumentare la trasparenza nelle attività della campagna e il rafforzamento dell'istruzione pubblica sono diventate soluzioni in discussione.
La spinta per una soluzione di “disclaimer” viene dalla senatrice bipartisan Clore Malofsky. Tuttavia, il problema è che se un disclaimer viene contrassegnato su contenuti di cui non si conosce l’autenticità, le persone saranno più propense a diffidare del contenuto, indebolendo così la credibilità di tutte le informazioni con questo marchio e l’efficacia del relativo effetto propagandistico il contenuto identificato potrebbe essere autentico.
L’approccio per richiedere ai team della campagna di aumentare la trasparenza e la divulgazione proattiva consiste nel richiedere alle campagne di rivelare in modo proattivo quando e come vengono utilizzati i sistemi di intelligenza artificiale. È solo che questo metodo attualmente manca di sufficiente fiducia e garanzia, perché sebbene questo piano attribuisca la responsabilità ai candidati stessi, se i candidati stessi non vogliono essere responsabili, non sono disposti a rivelare in modo proattivo o addirittura a nascondere deliberatamente le loro azioni, allora la raccolta Le prove saranno piuttosto costose, soprattutto perché esistono ancora determinate soglie tecniche.
Inoltre, se si tratta solo di una multa o di qualche sanzione amministrativa minore, allora i candidati potrebbero essere pronti a essere puniti. Dopotutto, se i benefici apportati dall'errata applicazione dell'AGI saranno superiori al costo della sanzione, ciò accadrà senza dubbio dare ai candidati un " "legale" significa pagare un prezzo per l'opportunità di utilizzare un'arma di sterminio di massa. Tuttavia, di fronte alla tentazione di vincere le elezioni presidenziali, quante fiches dovrebbe investire il legislatore nel costo della violazione della legge per rendere la gente ha paura?
Allo stesso tempo, dobbiamo anche vedere che nell'incidente con la foto falsa di Trump con i neri e nell'incidente della telefonata con l'intelligenza artificiale di Biden, l'iniziatore del comportamento non è stato il candidato stesso (almeno non in superficie), quindi c'è anche una responsabilità coinvolta La divisione, dopo tutto, assegnare la responsabilità a migliaia di sostenitori non crea un gran deterrente.
L’istruzione pubblica è una soluzione immediata, anche se non risolve sostanzialmente il problema. Dobbiamo sapere che non tutti nel pubblico hanno la capacità di digerire informazioni profondamente false, soprattutto quando il contenuto profondamente falso è un misto di vero e falso. Educando attivamente gli elettori su base regolare durante le elezioni, spiegando loro come identificare contenuti profondamente falsi e come elaborare le informazioni in modo obiettivo, sarà di grande aiuto per quegli elettori che sono intrappolati in un bozzolo informativo o che non sono ben istruiti.
In ogni caso, è arrivata l’era elettorale della profonda integrazione dell’AGI. Come identificare l’autenticità delle informazioni, come proteggersi dagli oppositori e come stabilire un meccanismo di regolamentazione e valutare l’efficacia delle politiche pubbliche sono diventate sfide comuni affrontate da entrambi i partiti in queste elezioni.
Nota:
[1]AP:Una pubblicità parodia condivisa da Elon Musk clona la voce di Kamala Harris, sollevando preoccupazioni sull'intelligenza artificiale in politica.
https://apnews.com/article/parody-ad-ai-harris-musk-x-misleading-3a5df582f911a808d34f68b766aa3b8e
[2] The Paper: Le elezioni americane si avvicinano e il dilemma delle false informazioni nel gioco dell’intelligenza artificiale
https://www.thepaper.cn/newsDetail_forward_27359556
[3] Sun Chenghao: L’intervento dell’intelligenza artificiale generativa nella propaganda elettorale statunitense: percorsi, scenari e rischi, 2024-7, P4-5.
[4]The Brookings: I pericoli posti dall’intelligenza artificiale e dalla disinformazione durante le elezioni, 2024-3
https://www.brookings.edu/events/the-dangers-posed-by-ai-and-disinformation-during-elections/
[5]The Brookings: Regolamentazione dell’intelligenza artificiale di uso generale: aree di convergenza e divergenza nell’UE e negli Stati Uniti, 2024-5
https://www.brookings.edu/articles/regifying-general-pose-ai-areas-of-convergence-and-divergence-across-the-eu-and-the-us/
[6]The Brookings: Meccanica incompresa: come l'intelligenza artificiale, TikTok e il dividendo del bugiardo potrebbero influenzare le elezioni del 2024, 2024-1
https://www.brookings.edu/articles/misunderstood-mechanics-how-ai-tiktok-and-the-liars-dividend-might-affect-the-2024-elections/
Questo articolo è un manoscritto esclusivo di Observer.com. Il contenuto dell'articolo è puramente l'opinione personale dell'autore e non rappresenta l'opinione della piattaforma. Non può essere riprodotto senza autorizzazione, altrimenti verrà perseguita la responsabilità legale. Segui Observer.com su WeChat guanchacn e leggi articoli interessanti ogni giorno.