nouvelles

Vous pensiez voter pour le président, mais AI l'avait déjà choisi pour vous.

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

[Texte/Réseau d'observateurs Liao Yiheng]

Avec l'avènement de l'ère de l'IA, les élections américaines de cette année sont également considérées par certains chercheurs comme la première « utilisation à grande échelle de l'intelligence artificielle pour influencer les électeurs ». De nombreux événements survenus lors de cette élection ont également confirmé les opinions de nombreuses personnes. aux États-Unis. On craint que l’intervention de grands modèles linguistiques dans les élections ait un impact négatif sur le système démocratique américain. Si l’incident d’enregistrement profond d’AGI lors des élections slovaques de 2023 n’est que le premier cas d’intervention de l’IA dans les élections, alors les élections américaines en cours peuvent être considérées comme une grande bataille d’intervention d’AGI dans les élections.

Début août, Trump a accusé "la photo de milliers de personnes attendant Harris lorsqu'elle descendait de l'avion lors du rassemblement de Détroit avait été truquée par AI, bien qu'elle ait été démentie par l'équipe de Harris, y compris les équipes d'enquête de Reuters de plusieurs médias !" a justifié le nom de Harris. Le bruit fort lors du rassemblement de Harris était en effet vrai, mais cela montre également que le peuple américain est très nerveux à l'idée que la technologie de l'IA intervienne dans les élections.


Le 7 août, heure locale, un groupe de personnes attendait le vice-président Kamala Harris et le gouverneur du Minnesota Tim Walz pour assister à un rassemblement électoral à l'aéroport de Romulus dans le Michigan. Donald Trump s'est élevé contre la participation aux rassemblements et a fait de fausses déclarations sur les photos de l'événement. Images Internet

Par coïncidence, le 26 juillet de cette année, Musk a partagé une fausse vidéo sur Harris sur sa plateforme X, avec le texte « C'est incroyable » et une émoticône riante. Dans cette vidéo, il y a de nombreux supports publicitaires de campagne antérieurs de l'équipe de campagne de Harris, ainsi qu'une narration de Harris qui suffit à provoquer des conflits entre sexe et race aux États-Unis : « Je suis une femme et une personne de couleur. vous critiquez tout ce que je dis, si vous dites cela, alors vous êtes sexiste et raciste.

La vidéo a été vue plus de 100 millions de fois en trois jours et a provoqué un tollé. En fait, cette vidéo n'a pas été tournée par Harris lui-même, mais a été synthétisée par l'intelligence artificielle générative, et était accompagnée de la voix synthétisée de Harris, ce qui est assez réaliste. Mais Musk n’a pas qualifié la vidéo de fausse dans son message.

L'équipe de campagne de Harris a exprimé de sérieuses protestations et a souligné dans un communiqué : « Cet incident est un bon exemple de la manière dont des images, des vidéos ou des vidéos réalistes générées par l'intelligence artificielle peuvent être utilisées à l'approche de l'élection présidentielle américaine. et induire en erreur la politique. »


Vidéo republiée par Musk sur son propre réseau social X. La vidéo a été synthétisée par intelligence artificielle générative (AGI) et mélangée à des informations réelles sur la campagne pour la rendre très réaliste. Images Internet

En fait, l’histoire de l’intervention de la technologie de l’IA dans les élections américaines se déroule depuis le début de cette année. Même avant que Biden ne se retire de la course, il y a eu un incident où « AI Biden » a perturbé la primaire du New Hampshire. Selon des informations pertinentes, certains électeurs ont reçu des appels utilisant la voix synthétisée de Biden le 21 janvier de cette année, leur demandant de conserver leurs votes pour les élections finales de novembre et affirmant que s'ils participaient aux élections primaires du parti, vous ne pourrez plus pour participer à l'élection finale. Plus tard, Hani Farid, un expert en criminalistique numérique à l'Université de Californie à Berkeley, a confirmé que la voix du téléphone avait en réalité été forgée par une technologie d'intelligence artificielle « relativement inférieure ».

Par la suite, le 25 février de cette année, Steve Kramer, consultant politique du candidat démocrate à la présidentielle et membre du Congrès Phillips, a admis avoir embauché Carpenter et demandé à Carpenter de concocter le logiciel Baidu grâce à la voix de Deng et à la planification de cette tempête téléphonique, le. L’appel aux électeurs visait simplement à « rappeler au public de se prémunir contre les applications trompeuses de l’IA ».


Magic Carpenter a décrit aux médias le processus consistant à lui demander de créer un audio de « faux appel de Biden ». Images Internet

La compétition d’IA entre les deux partis aux élections américaines a déjà commencé. Le Parti démocrate a également constaté l’expérience audacieuse et sophistiquée du Parti républicain en matière d’utilisation de l’IA.

En mars de cette année, des photos de Trump et d’électeurs noirs ont continué à apparaître sur les réseaux sociaux américains. Une équipe d’enquête du programme factuel Panorama de la BBC a découvert que le point commun entre les images était qu’elles représentaient toutes des Noirs soutenant l’ancien président Trump et suggérant qu’ils voteraient pour le Parti républicain. Les images avancent en fait un récit stratégique : Trump est désormais très populaire au sein de la communauté noire. Il faut savoir que les électeurs noirs sont la clé de la victoire de Biden aux élections de 2020.

Bien sûr, ces images deepfake ont finalement été découvertes, mais lors du processus de diffusion, ces photos deepfake ne comportaient ni filigrane ni annotations pour indiquer leurs attributs non réels. Bien que certains internautes attentifs puissent repérer la distorsion de la brillance et de la texture de ces photos, tout le monde n’a pas assez d’énergie et de jugement pour les identifier.


Trump a embrassé un groupe de femmes noires. Il a ensuite été confirmé que la photo avait été falsifiée par l'intelligence artificielle générative. Images Internet

Après enquête, il a été découvert que certaines de ces photos provenaient de comptes satirisant Trump, mais avaient été largement diffusées après nettoyage, et certaines avaient été générées par les propres partisans fanatiques de Trump. Le créateur de l'une des images a déclaré à la BBC : "Je n'ai pas dit que c'était une vraie photo". Ce genre de réponse rend les gens impuissants, car avant qu'AGI ne génère des photos profondément fausses, la plupart des gens optent par défaut pour le jugement « voir c'est croire ».

Outre les fausses informations diffusées spontanément par les partisans fanatiques de Trump, la campagne Trump elle-même accroît également son attention et ses investissements dans le domaine de l’IA. Les dossiers de financement de la campagne montrent que l’équipe Trump, le Comité national républicain et ses comités de collecte de fonds associés ont versé plus de 2,2 millions de dollars à des sociétés liées telles que Campaign Nucleus, propriété de Parscale, l’ancien directeur de campagne de Trump. L'activité de Campaign Nucleus comprend l'utilisation d'AGI pour aider à générer des e-mails personnalisés, analyser un large éventail de données pour mesurer le sentiment des électeurs, trouver des électeurs influents et amplifier les publications sur les réseaux sociaux des influenceurs « anti-réveil ». L’accent est mis sur l’utilisation de la technologie de l’IA pour analyser les partisans des missions politiques afin de créer des profils et chercher à manipuler les préférences des électeurs grâce à des programmes personnalisés.

Il convient de mentionner que certains leaders technologiques ont également changé de position politique et ont commencé à soutenir Trump. Cela semble être une course à double sens. L’une des figures emblématiques est Elon Musk. Après la fusillade de Trump, Musk a officiellement annoncé sur sa plateforme sociale X qu’il soutenait la candidature de l’ancien président Trump et qu’il était prêt à fournir des fonds pour soutenir sa campagne.

Bien que le revirement du soutien de certains dirigeants de la Silicon Valley au Parti républicain soit directement lié aux lacunes des politiques de diversité, la raison plus large est également due à leurs considérations sur l'avenir de l'industrie technologique. En bref, des éléments tels que les fonds et les plateformes de communication sont profondément liés au soutien de la technologie AGI et ont exercé un pouvoir inattendu.

Le secret d'une boîte noire étroitement tissée

Ayant été témoins de la capacité sans précédent d’AGI à brouiller les cartes lors des élections, nous ne pouvons nous empêcher de nous demander : quel est le mécanisme d’intervention d’AGI dans les élections ?

Contenu Deep Fake (Deepfakes) généré par AGI, comprenant du texte, de l'audio, des images et des vidéos. Ces éléments entremêlent profondément les éléments informationnels et cognitifs de la propagande électorale et sont en fait profondément liés au modèle de communication politique. En s’implantant profondément dans le processus électoral, l’AGI remet en question les perceptions des électeurs, provoquant à la fois des effets de renforcement et d’ébranlement, atteignant ainsi l’objectif de manipuler les électeurs.


Cadre d'analyse de la propagande électorale américaine Sun Chenghao : L'intervention de l'intelligence artificielle générative dans la propagande électorale américaine : voies, scénarios et risques, 2024-7. [3]

Le mécanisme de propagande électorale aux États-Unis comprend principalement trois étapes : l’entrée, le traitement et la sortie. Les candidats et les partis politiques mènent des activités de campagne afin de remporter les élections. Cette activité vise essentiellement à persuader les électeurs et à leur permettre de traiter et de digérer le contenu de la propagande politique, et finalement d'atteindre l'objectif de permettre aux électeurs de faire des choix.

Grâce à l'autonomisation en profondeur d'AGI, dans le domaine de la propagande électorale américaine, les processus comprenant l'inscription des électeurs, l'analyse des données électorales, l'analyse des prévisions électorales, la formulation de la stratégie électorale, le suivi du processus électoral, la diffusion de la publicité et les ressources électorales liées à l'assistance aux électeurs, tous ont pris sur de nouvelles formes.

En termes de prévision électorale, d'analyse des données électorales, de formulation de stratégies électorales et d'assistance aux électeurs, les performances actuelles d'AGI sont généralement sur la bonne voie. Plus précisément, il aide les équipes de campagne et les décideurs à analyser la situation électorale plus rapidement et plus soigneusement et à générer des graphiques en temps réel. Il aide les candidats à analyser les portraits des électeurs et à formuler des stratégies de segmentation approfondies. En même temps, il améliore la relation entre les candidats. et les électeurs via les réponses automatiques par courrier électronique d'AGI et d'autres méthodes. La qualité de l'interaction peut améliorer l'effet de rétroaction et servir d'encyclopédie électorale pour fournir aux électeurs les informations électorales nécessaires et opportunes.

Mais sous d’autres aspects, l’application approfondie de l’AGI a évidemment mis en évidence certains problèmes. Lors de l'inscription des électeurs, l'intention initiale de l'AGI est d'augmenter la participation électorale en générant activement des e-mails ou en passant des appels téléphoniques. Cependant, l'incident de « l'appel téléphonique d'AI Biden » au début de l'année a prouvé qu'AGI peut également « briller de mille feux » en perturbant le vote des électeurs.

En termes de suivi du processus électoral et de diffusion de la publicité, l'importance positive de l'autonomisation de l'AGI est d'identifier les activités anormales dans le processus électoral, de prévenir la fraude et les attaques sur le réseau, de maintenir l'ordre des élections, d'identifier les groupes subdivisés et de fournir avec précision des informations électorales à sur ces électeurs. Mais dans l'incident de la photo noire de Trump et dans l'incident d'enregistrement précédent en Slovaquie, nous pouvons voir que l'AGI joue le rôle inverse. Le maintien de l'ordre et une livraison précise se sont transformés en une livraison perturbatrice et profondément fausse.

Les dommages causés par l'écologie de campagne perturbée par l'AGI à la cognition des électeurs se reflètent principalement sous deux aspects : ébranler la cognition des électeurs et renforcer la cognition des électeurs.

En termes d’effet déstabilisateur, dans l’incident des fausses photos de Trump et des Noirs, afin de convaincre les Noirs, en particulier les jeunes noirs, AGI a contribué à générer une série de photos profondément fausses. Grâce au positionnement précis d’AGI, ces photos profondément fausses ont été discrètement diffusées auprès des électeurs, remettant en question les perceptions antérieures des électeurs noirs et influençant les jeunes électeurs hésitants.

En termes de renforcement de l'effet, comme pour les informations de propagande elles-mêmes, la vitesse de génération de l'AGI peut apporter à l'équipe électorale l'avantage de la propagande d'un bombardement massif d'informations, et même la qualité de la rédaction peut saisir plus précisément les « points douloureux » des électeurs et attirer leurs dons. De plus, l’anthropomorphisme des AGI, comme les robots politiques, peut aider les partis politiques à se rapprocher des électeurs et à parvenir à une communication et un retour d’information efficaces.

Il convient de noter que l’effet de renforcement flexible de l’AGI et sa capacité à générer des quantités massives d’informations dans un court laps de temps et à les diffuser avec précision seront rapidement amplifiés au cours de périodes spécifiques de communication politique, provoquant facilement la propagation explosive de fausses informations profondes. Ces situations se produisent souvent au début des élections et pendant la période de silence des élections, lorsque diverses entités de propagande ne sont pas encore entrées dans le lieu de la propagande ou en sont expulsées de force.


Le mécanisme par lequel les informations traitées par l’intelligence artificielle générative détruisent la cognition des électeurs Sun Chenghao : L’intervention de l’intelligence artificielle générative dans la propagande électorale américaine : voies, scénarios et risques, 2024-7. [3]

En outre, certains AGI ont eux-mêmes des idéologies potentielles. Par exemple, le célèbre GhatGPT a été souligné lors d’un test comme ayant une position idéologique évidente de gauche. Neil Postman a un jour mentionné un point de vue en analysant la technologie des médias : « Les médias sont une métaphore. » Il pensait que les médias eux-mêmes ont de puissantes implications et peuvent changer la façon de penser des gens pour redéfinir la réalité. Dès la période des « élections sur Twitter » et de la « gouvernance de Twitter » de Trump, nous avons ressenti le pouvoir des médias pour façonner les électeurs. Aujourd'hui, alors que l'AGI donne davantage de pouvoir à la plateforme médiatique, cette métaphore elle-même peut facilement être amplifiée à l'infini.

Vers des cyberélections

En mars de cette année, des experts concernés de la Brookings Institution aux États-Unis ont tenu une discussion hors ligne pour discuter des risques posés par l'intelligence artificielle et les fausses informations lors des élections. Ils estiment que les risques actuels que l’AGI apporte aux élections se concentrent sur trois aspects : l’intégration profonde de la législation, de la technologie et des mécanismes de communication.


Séminaire, de gauche à droite : Darrell M. West (chercheur principal, Center for Technology Innovation), Soheil Feizi (professeur agrégé, Département d'informatique, Université du Maryland), Shana M Broussard (commissaire de la Commission électorale fédérale), Matt Perault ( Université de Caroline du Nord à Chapel Hill) Directeur du Campus Technology Policy Center) Capture d'écran vidéo

Au niveau législatif, le gouvernement fédéral américain n’est évidemment pas prêt à légiférer contre l’ingérence de l’AGI dans les élections. L’essentiel de la responsabilité incombe encore aux législations des États et aux grandes plateformes médiatiques privées.

Le 30 octobre 2023, le président Biden a signé le décret 14110 sur le « Développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle ». Ce décret constitue l’approche la plus complète à ce jour en matière de gouvernance de l’intelligence artificielle aux États-Unis, couvrant la couverture. des domaines allant des nouvelles normes industrielles pour la sécurité de l’IA à la protection de la vie privée, aux droits civils, aux intérêts des travailleurs, à l’innovation technologique, à l’utilisation de l’IA par le gouvernement et au leadership international des États-Unis.

Dans une certaine mesure, ce décret peut être considéré comme une feuille de route pour la future législation dans le domaine de la sécurité de l'intelligence artificielle aux États-Unis, aidant à éviter de répéter la trajectoire de division de la gouvernance précédente et permettant au travail de réglementation de revenir sur des propositions dispersées par les États. le système fédéral sous gestion. Cependant, cette « méthode de gouvernance artificielle globale » en est encore à ses balbutiements, et les problèmes causés par l’IAG nationale lors des élections se font déjà sentir.

Sur le plan technique, bien que certaines personnes aient proposé d'utiliser des filigranes numériques pour identifier les contenus générés profondément faux, les experts affirment que cela n'est pas fiable. Ces filigranes peuvent être facilement effacés lors du processus de génération AGI, et il s’agit d’une limitation technique fondamentale difficile à résoudre à court terme. La méthode la plus efficace à l’heure actuelle consiste à espérer que le secteur privé puisse fournir de manière proactive des services d’examen. Même si cela ne suffit pas à résoudre le problème face à une législation améliorée, il peut au moins jouer un certain rôle.

Au niveau du mécanisme de communication, les experts présents à la réunion ont déclaré que les fausses informations affectent en réalité 5 à 10% des électeurs, et la grande majorité des électeurs ont déjà décidé depuis le début de leur camp. Sur ce point, d’autres experts affirment qu’il ne faut pas être trop pessimiste quant à l’émergence d’une désinformation profonde :

Tout d’abord, les fausses nouvelles ne représentent qu’une petite partie des informations reçues par les gens ordinaires. "Une étude de 2020 a révélé que pour l'Américain moyen, environ 7,5 heures de temps consacré aux médias sont consacrées chaque jour, dont environ 14 % sont liées à l'actualité, principalement à la télévision. Une autre étude récente a estimé que pour l'adulte américain moyen, pour les utilisateurs de Facebook, même dans les mois qui ont précédé les élections américaines de 2020, moins de 7 % du contenu qu’ils ont vu était lié à l’actualité. »

Deuxièmement, s’agissant de la profonde désinformation qui existe, les recherches montrent qu’elle est principalement concentrée parmi un petit nombre d’Américains. Cela peut être lié au cocon d'informations provoqué par l'algorithme, mais ces fausses informations profondes sont généralement incapables d'atteindre la grande majorité du public en ligne, en particulier après que l'AGI ait contribué à diviser profondément le groupe d'utilisateurs, la base d'utilisateurs correspondant à des informations spécifiques devient plus petite. .

En plus de renforcer la législation fédérale et d'encourager les entreprises technologiques à contrôler conjointement AGI, la promotion des « clauses de non-responsabilité », l'obligation pour les équipes de campagne d'accroître la transparence dans les activités de campagne et le renforcement de l'éducation du public sont également devenus des solutions en cours de discussion.

La pression en faveur d’une solution de « clause de non-responsabilité » vient du sénateur bipartisan Clore Malofsky. Cependant, le problème est que si une clause de non-responsabilité est apposée sur un contenu dont l'authenticité est inconnue, les gens seront plus enclins à se méfier du contenu, affaiblissant ainsi la crédibilité de toutes les informations portant cette marque et l'efficacité de l'effet de propagande associé, même si cela n'est pas le cas. le contenu identifié peut être authentique.

L’approche pour exiger des équipes de campagne qu’elles augmentent la transparence et la divulgation proactive consiste à exiger des campagnes qu’elles divulguent de manière proactive quand et comment les systèmes d’intelligence artificielle sont utilisés. C'est juste que cette méthode manque actuellement de suffisamment de confiance et de garantie, car même si ce plan fait peser la responsabilité sur les candidats eux-mêmes, si les candidats eux-mêmes ne veulent pas être responsables, ne veulent pas divulguer de manière proactive ou même délibérément cacher leurs actions, alors la collecte de preuve sera C'est assez coûteux, d'autant plus qu'il existe encore certains seuils techniques.

De plus, s'il ne s'agit que d'une amende ou de quelques sanctions administratives mineures, les candidats peuvent être prêts à être punis. Après tout, dès lors que les avantages apportés par une mauvaise application de l'AGI sont supérieurs au coût de la sanction, cela sera sans aucun doute le cas. donner aux candidats un « légal » signifie payer un prix pour avoir la possibilité d'utiliser une arme de massacre. Cependant, face à la tentation de remporter l'élection présidentielle, combien de jetons le législateur devrait-il investir dans le coût de la violation de la loi pour rendre les gens ont peur ?

Dans le même temps, nous devons également voir que dans l'incident de fausse photo de Trump avec des Noirs et l'incident d'appel téléphonique de Biden avec l'IA, l'initiateur du comportement n'était pas le candidat lui-même (du moins pas en surface), donc il y a aussi une responsabilité impliquée. Après tout, la division, attribuer des responsabilités à des milliers de partisans n’a pas beaucoup d’effet dissuasif.

L’éducation du public constitue une solution immédiate, même si elle ne résout pas fondamentalement le problème. Nous devons savoir que tout le monde dans le public n’a pas la capacité de digérer des informations profondément fausses, en particulier lorsque le contenu profondément faux est un mélange de vrai et de faux. En éduquant activement et régulièrement les électeurs pendant l’élection, en leur expliquant comment identifier les contenus profondément faux et comment traiter les informations de manière objective, cela sera d’une grande aide pour les électeurs qui sont piégés dans un cocon d’information ou qui ne sont pas bien éduqués.

Quoi qu’il en soit, l’ère électorale d’une profonde intégration de l’AGI est arrivée. Comment identifier l'authenticité des informations, comment se prémunir contre les opposants et comment établir un mécanisme de régulation et évaluer l'efficacité des politiques publiques sont devenus des défis communs auxquels sont confrontés les deux partis lors de cette élection.

Note:

[1]AP : Une publicité parodique partagée par Elon Musk clone la voix de Kamala Harris, soulevant des inquiétudes concernant l'IA en politique.

https://apnews.com/article/parody-ad-ai-harris-musk-x-misleading-3a5df582f911a808d34f68b766aa3b8e

[2] The Paper : Les élections américaines approchent et le dilemme des fausses informations dans le jeu de l'IA

https://www.thepaper.cn/newsDetail_forward_27359556

[3] Sun Chenghao : L'intervention de l'intelligence artificielle générative dans la propagande électorale américaine : voies, scénarios et risques, 2024-7, P4-5.

[4]The Brookings : Les dangers posés par l'IA et la désinformation pendant les élections, 2024-3

https://www.brookings.edu/events/the-dangers-posed-by-ai-and-disinformation-during-elections/

[5]The Brookings : Réglementation de l'IA à usage général : domaines de convergence et de divergence entre l'UE et les États-Unis, 2024-2025

https://www.brookings.edu/articles/regulated-general-Purpose-ai-areas-of-convergence-and-divergence-across-the-eu-and-the-us/

[6]The Brookings : Mécanique mal comprise : comment l'IA, TikTok et le dividende du menteur pourraient affecter les élections de 2024, 2024-1

https://www.brookings.edu/articles/misunderstood-mechanics-how-ai-tiktok-and-the-liars-dividend-might-affect-the-2024-elections/


Cet article est un manuscrit exclusif d'Observer.com. Le contenu de l'article est purement l'opinion personnelle de l'auteur et ne représente pas l'opinion de la plateforme. Il ne peut pas être reproduit sans autorisation, sous peine de poursuites judiciaires. Suivez Observer.com sur WeChat guanchacn et lisez des articles intéressants chaque jour.