noticias

Pensaste que votarías por el presidente, pero AI ya lo había elegido por ti.

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

[Texto/Red de observadores Liao Yiheng]

Con el advenimiento de la era de la inteligencia artificial, algunos académicos también consideran las elecciones estadounidenses de este año como el primer "uso a gran escala de inteligencia artificial para influir en los votantes". Muchos eventos que ocurrieron en estas elecciones también han confirmado las opiniones de muchos. En los Estados Unidos existe la preocupación de que la intervención de grandes modelos lingüísticos en las elecciones tenga un impacto negativo en el sistema democrático estadounidense. Si el incidente de grabación profundamente falsa de AGI en las elecciones eslovacas de 2023 es solo el primer caso de intervención de AI en las elecciones, entonces las elecciones estadounidenses en curso pueden considerarse como una gran batalla en la que AGI interviene en las elecciones.

A principios de agosto, Trump acusó que "la foto de miles de personas esperando a Harris cuando ella bajó del avión en el mitin de Detroit fue falsificada por AI". Aunque fue negada por el equipo de Harris, incluidos los equipos de investigación de Reuters de varios medios de comunicación. Reivindicó el nombre de Harris. El fuerte ruido en el mitin de Harris fue cierto, pero también muestra que el pueblo estadounidense está muy nervioso por la intervención de la tecnología de inteligencia artificial en las elecciones.


El 7 de agosto, hora local, un grupo de personas esperaba que la vicepresidenta Kamala Harris y el gobernador de Minnesota, Tim Walz, asistieran a un mitin de campaña en el aeropuerto Romulus de Michigan. Donald Trump ha criticado la participación en los mítines y ha hecho afirmaciones falsas sobre fotografías del evento. fotos de internet

Casualmente, el 26 de julio de este año, Musk compartió un vídeo profundamente falso sobre Harris en su plataforma X, con el texto "Esto es increíble" y un emoticón de risa. En este video, hay muchos materiales publicitarios de campaña anteriores del equipo de campaña de Harris, así como una narración de Harris que es suficiente para provocar conflictos entre género y raza en los Estados Unidos: "Soy una mujer y una persona de color. Si Criticas todo lo que digo. Si dices eso, entonces eres sexista y racista”.

El vídeo recibió más de 100 millones de visitas en tres días y causó revuelo. De hecho, este video no fue filmado por el propio Harris, sino que fue sintetizado por inteligencia artificial generativa y estuvo acompañado por la voz sintetizada de Harris, que es bastante realista. Pero Musk no calificó el vídeo como falso en la publicación.

El equipo de campaña de Harris expresó una seria protesta y enfatizó en un comunicado: "Este incidente es un buen ejemplo de cómo se pueden usar imágenes, videos o videos realistas generados por inteligencia artificial a medida que se acercan las elecciones presidenciales de Estados Unidos. Cómo se usan clips de audio para burlarse engañar a la política”.


Video publicado por Musk en su propia red social X. El vídeo fue sintetizado mediante inteligencia artificial generativa (AGI) y combinado con información real de la campaña para hacerlo muy realista. fotos de internet

De hecho, la historia de la intervención de la tecnología de inteligencia artificial en las elecciones estadounidenses se ha estado desarrollando desde principios de este año. Incluso antes de que Biden abandonara la carrera, hubo un incidente en el que "AI Biden" interrumpió las primarias de New Hampshire. Según informes relevantes, algunos votantes recibieron llamadas utilizando la voz sintetizada de Biden el 21 de enero de este año, pidiéndoles que guardaran sus votos para las elecciones finales de noviembre y afirmando que si participaban en las elecciones primarias del partido, ya no podrán. para participar en la elección final. Más tarde, Hani Farid, un experto en forense digital de la Universidad de California, Berkeley, confirmó que la voz del teléfono en realidad fue falsificada por tecnología de inteligencia artificial "relativamente inferior".

Posteriormente, el 25 de febrero de este año, Steve Kramer, consultor político del candidato presidencial demócrata y congresista Phillips, admitió que contrató a Carpenter y le pidió que inventara el software Baidu a través del software de inteligencia artificial de Deng y la planificación de esta tormenta telefónica. El llamado a los votantes fue simplemente "recordar al público que se proteja contra aplicaciones engañosas de IA".


Magic Carpenter describió a los medios el proceso en el que le pidieron que creara un audio de "llamada falsa de Biden". fotos de internet

La contienda de IA entre los dos partidos en las elecciones estadounidenses ya ha comenzado. El Partido Demócrata también ha sido testigo de la audaz y sofisticada experiencia del Partido Republicano en el uso de la IA.

En marzo de este año, siguieron apareciendo fotografías de Trump y votantes negros en las redes sociales estadounidenses. Un equipo de investigación del programa factual Panorama de la BBC descubrió que lo que tenían en común las imágenes era que todas mostraban a personas negras apoyando al expresidente Trump y sugiriendo que votarían por el Partido Republicano. De hecho, las imágenes avanzan una narrativa estratégica: Trump ahora es tremendamente popular en la comunidad negra. Debes saber que los votantes negros son la clave para la victoria de Biden en las elecciones de 2020.

Por supuesto, estas imágenes deepfake finalmente fueron descubiertas, pero durante el proceso de difusión, estas fotos deepfake no tenían marcas de agua ni anotaciones que indicaran sus atributos no reales. Aunque algunos internautas atentos pueden detectar la distorsión en el brillo y la textura de estas fotografías, no todos tienen suficiente energía y juicio para identificarlas.


Trump abrazó a un grupo de mujeres negras. Más tarde se confirmó que la foto había sido falsificada por inteligencia artificial generativa. fotos de internet

Después de la investigación, se descubrió que algunas de estas fotos provenían de cuentas que satirizaban a Trump, pero circularon ampliamente después de la limpieza, y algunas fueron generadas por los propios seguidores fanáticos de Trump. El creador de una de las imágenes le dijo a la BBC: "No dije que fuera una foto real". Este tipo de respuesta hace que la gente se sienta impotente, porque antes de que AGI genere fotos profundamente falsas, la mayoría de la gente adopta por defecto el juicio de "ver para creer".

Además de la información falsa difundida espontáneamente por los fanáticos seguidores de Trump, la propia campaña de Trump también está aumentando su atención e inversión en el campo de la IA. Los registros financieros de la campaña muestran que el equipo de Trump, el Comité Nacional Republicano y sus comités de recaudación de fondos relacionados pagaron más de 2,2 millones de dólares a empresas relacionadas como Campaign Nucleus, propiedad del exdirector de campaña de Trump, Parscale. El negocio de Campaign Nucleus incluye el uso de AGI para ayudar a generar correos electrónicos personalizados, analizar una amplia gama de datos para medir el sentimiento de los votantes, encontrar votantes influyentes y amplificar las publicaciones en las redes sociales de personas influyentes "anti-despertar". La atención se centra en el uso de tecnología de inteligencia artificial para analizar a los partidarios de misiones políticas para crear perfiles y tratar de manipular las preferencias de los votantes a través de programas personalizados.

Vale la pena mencionar que algunos líderes tecnológicos también han cambiado su postura política y han comenzado a apoyar a Trump. Esta parece ser una carrera de dos vías. Una de las figuras icónicas es Elon Musk. Después del tiroteo de Trump, Musk anunció oficialmente en su plataforma social X que apoyaba la candidatura del expresidente Trump y que estaba dispuesto a proporcionar fondos para apoyar su campaña.

Aunque la reversión del apoyo de algunos líderes de Silicon Valley al Partido Republicano está directamente relacionada con las deficiencias de las políticas de diversidad, la razón más amplia también se debe a sus consideraciones sobre el futuro de la industria tecnológica. En resumen, elementos como los fondos y las plataformas de comunicación están profundamente vinculados con el apoyo de la tecnología AGI y han ejercido un poder inesperado.

El secreto de una caja negra muy tejida

Habiendo sido testigos de la capacidad sin precedentes de AGI para enturbiar las aguas en las elecciones, no podemos evitar preguntar: ¿Cuál es el mecanismo para la intervención de AGI en las elecciones?

Contenido deep fake (Deepfakes) generado por AGI, que incluye texto, audio, imágenes y videos. Estos elementos enredan profundamente los elementos informativos y cognitivos de la propaganda electoral y, de hecho, han estado profundamente ligados al modelo de comunicación política. Al integrarse profundamente en el proceso electoral, AGI desafía las percepciones de los votantes, provocando efectos tanto de fortalecimiento como de sacudimiento, logrando así el propósito de manipular a los votantes.


Marco de análisis de la propaganda electoral estadounidense Sun Chenghao: La intervención de la inteligencia artificial generativa en la propaganda electoral estadounidense: caminos, escenarios y riesgos, 2024-7. [3]

El mecanismo de propaganda electoral en Estados Unidos consta principalmente de tres etapas: entrada, procesamiento y salida. Los candidatos y los partidos políticos llevan a cabo actividades de campaña para ganar elecciones. Esta actividad tiene como objetivo esencialmente persuadir a los votantes y permitirles procesar y digerir el contenido de la propaganda política y, en última instancia, lograr el propósito de permitir que los votantes tomen decisiones.

Con el profundo empoderamiento de AGI, en el campo de la propaganda electoral de EE. UU., procesos que incluyen el registro de votantes, el análisis de datos de los votantes, el análisis de pronósticos electorales, la formulación de estrategias electorales, el seguimiento del proceso electoral, la entrega de publicidad y los recursos electorales relacionados con la asistencia a los votantes, todos han tomado en nuevas formas.

En términos de predicción electoral, análisis de datos de votantes, formulación de estrategias electorales y asistencia a los votantes, el desempeño actual de AGI va en general por buen camino. Específicamente, ayuda a los equipos de campaña y a los tomadores de decisiones a analizar la situación electoral de manera más rápida y cuidadosa y a generar gráficos en tiempo real. Ayuda a los candidatos a analizar retratos de los votantes y formular estrategias de segmentación en profundidad. Al mismo tiempo, mejora la relación entre los candidatos. y los votantes a través de respuestas automáticas por correo electrónico de AGI y otros métodos. La calidad de la interacción puede mejorar el efecto de retroalimentación y servir como una enciclopedia electoral para proporcionar a los votantes la información electoral necesaria y oportuna.

Pero en otros aspectos, la aplicación profunda de AGI obviamente ha expuesto algunos problemas. En el registro de votantes, la intención original de AGI es aumentar la participación de votantes generando activamente correos electrónicos o realizando llamadas telefónicas. Sin embargo, el incidente de la "llamada telefónica de AI Biden" a principios de año ha demostrado que AGI también puede "brillar intensamente" al interrumpir la votación de los votantes.

En términos de seguimiento del proceso electoral y entrega de publicidad, la importancia positiva del empoderamiento de AGI es identificar actividades anormales en el proceso electoral, prevenir fraudes y ataques a la red, mantener el orden de las elecciones, identificar grupos subdivididos y entregar información electoral con precisión a sobre estos votantes. Pero en el incidente de la fotografía negra de Trump y en el anterior incidente de grabación en Eslovaquia, podemos ver que AGI desempeña el papel opuesto. Mantener el orden y la entrega precisa se ha convertido en una entrega perturbadora y profundamente falsa.

El daño causado por la ecología de la campaña alterada por AGI a la cognición de los votantes se refleja principalmente en dos aspectos: sacudir la cognición de los votantes y fortalecer la cognición de los votantes.

En términos de efecto desestabilizador, en el incidente de las fotografías falsas de Trump y los negros, para ganarse a los negros, especialmente a los jóvenes negros, AGI ayudó a generar una serie de fotografías profundamente falsas. A través del posicionamiento preciso de AGI, estas fotografías profundamente falsas fueron reveladas silenciosamente a los votantes, desafiando las percepciones previas de los votantes negros e influyendo en los votantes jóvenes vacilantes.

En términos de fortalecer el efecto, en cuanto a la información propagandística en sí, la velocidad de generación de AGI puede brindarle al equipo electoral la ventaja propagandística del bombardeo masivo de información, e incluso la calidad de la redacción puede captar con mayor precisión los "puntos débiles" de los votantes y atraer sus donaciones. Además, el antropomorfismo de AGI, como los robots políticos, puede ayudar a los partidos políticos a acercarse a los votantes y lograr una comunicación y retroalimentación eficientes.

Vale la pena señalar que el efecto de refuerzo flexible de AGI y su capacidad para generar cantidades masivas de información en un corto período de tiempo e impulsarla con precisión se amplificarán rápidamente durante períodos específicos de comunicación política, lo que fácilmente provocará la difusión explosiva de información profundamente falsa. Estas situaciones ocurren a menudo al comienzo de las elecciones y durante el período de silencio de las elecciones, cuando varias entidades de propaganda aún no han ingresado al lugar de celebración o han sido expulsadas por la fuerza del lugar de propaganda.


El mecanismo por el cual la información procesada por la inteligencia artificial generativa destruye la cognición de los votantes Sun Chenghao: La intervención de la inteligencia artificial generativa en la propaganda electoral de EE. UU.: caminos, escenarios y riesgos, 2024-7. [3]

Además, algunos AGI tienen ideologías potenciales. Por ejemplo, en una prueba se señaló que el famoso GhatGPT tiene una postura ideológica evidente de izquierda. Neil Postman mencionó una vez un punto de vista al analizar la tecnología de los medios: "Los medios son metáforas". Creía que los medios en sí mismos tienen implicaciones poderosas y pueden cambiar la forma de pensar de las personas para redefinir la realidad. Ya en el período de "elección de Twitter" y "gobernanza de Twitter" de Trump, hemos sentido el poder de los medios para moldear a los votantes. Ahora, cuando AGI empodera fuertemente a la plataforma de medios, esta metáfora en sí misma puede amplificarse infinitamente.

Hacia elecciones cibernéticas

En marzo de este año, expertos relevantes de la Brookings Institution de Estados Unidos mantuvieron una discusión fuera de línea para discutir los riesgos que plantean la inteligencia artificial y la información falsa durante las elecciones. Creen que los riesgos actuales que AGI trae a las elecciones se concentran en tres aspectos: la profunda integración de la legislación, la tecnología y los mecanismos de comunicación.


Seminario, de izquierda a derecha están Darrell M. West (miembro principal, Centro de Innovación Tecnológica), Soheil Feizi (profesor asociado, Departamento de Ciencias de la Computación, Universidad de Maryland), Shana M Broussard (comisionado de la Comisión Federal Electoral), Matt Perault ( Universidad de Carolina del Norte en Chapel Hill) Director del Centro de Políticas Tecnológicas del Campus) Captura de pantalla del vídeo

A nivel legislativo, el gobierno federal de Estados Unidos obviamente no está preparado para legislar contra la interferencia de AGI en las elecciones. La mayor parte de la responsabilidad aún recae en la legislación estatal y las principales plataformas de medios privados.

El 30 de octubre de 2023, el presidente Biden firmó la Orden Ejecutiva 14110 sobre “Desarrollo y uso seguro y confiable de la inteligencia artificial”. Esta Orden Ejecutiva es el enfoque más completo para la gobernanza de la inteligencia artificial en los Estados Unidos hasta la fecha y cubre la cobertura. áreas que van desde nuevos estándares industriales para la seguridad de la IA hasta protecciones de la privacidad, derechos civiles, intereses de los trabajadores, innovación tecnológica, uso gubernamental de la IA y liderazgo internacional de Estados Unidos.

Hasta cierto punto, esta orden ejecutiva puede considerarse como una hoja de ruta para la legislación futura en el campo de la seguridad de la inteligencia artificial en los Estados Unidos, ayudando a evitar que se repita la trayectoria divisiva en la gobernanza anterior y permitiendo que el trabajo regulatorio regrese de propuestas dispersas de los estados a el sistema federal bajo gestión. Sin embargo, este “método integral de gobernanza artificial” está todavía en su infancia y los problemas causados ​​por el AGI nacional en las elecciones ya están surgiendo con fuerza.

A nivel técnico, aunque algunas personas han propuesto utilizar marcas de agua digitales para identificar contenido generado profundamente falso, los expertos dicen que esto no es confiable. Estas marcas de agua se pueden borrar fácilmente durante el proceso de generación de AGI, y esta es una limitación técnica básica difícil de resolver en el corto plazo. El método más eficaz en la actualidad es esperar que el sector privado pueda proporcionar de forma proactiva algunos servicios de revisión. Aunque no es suficiente para resolver el problema ante una legislación mejorada, al menos puede desempeñar algún papel.

En el nivel de afectar el mecanismo de comunicación, los expertos en la reunión dijeron que la información falsa en realidad afecta al 5% al ​​10% de los votantes indecisos, y la gran mayoría de los votantes ya han decidido su bando desde el principio. Sobre este punto, otros expertos dicen que no debemos ser demasiado pesimistas sobre el surgimiento de una desinformación profunda:

En primer lugar, las noticias falsas sólo representan una pequeña parte de la información que recibe la gente corriente. “Un estudio de 2020 encontró que el estadounidense promedio dedica alrededor de 7,5 horas de tiempo a los medios cada día, aproximadamente el 14% de las cuales está relacionado con noticias, principalmente de la televisión. Otro estudio reciente estimó que para el adulto estadounidense promedio Los usuarios de Facebook, Incluso en los meses previos a las elecciones estadounidenses de 2020, menos del 7% del contenido que vieron estaba relacionado con noticias".

En segundo lugar, en cuanto a la profunda desinformación que existe, las investigaciones muestran que se concentra principalmente entre un pequeño número de estadounidenses. Esto puede estar relacionado con el capullo de información causado por el algoritmo, pero esta información profundamente falsa generalmente no puede llegar a la gran mayoría del público en línea, especialmente después de que AGI ayuda a dividir profundamente al grupo de usuarios, la base de usuarios correspondiente a información específica se vuelve más pequeña. .

Además de fortalecer la legislación federal y promover que las empresas de tecnología controlen conjuntamente AGI, promover "exenciones de responsabilidad", exigir a los equipos de campaña que aumenten la transparencia en las actividades de campaña y fortalecer la educación pública también se han convertido en soluciones que se están discutiendo.

El impulso para una solución de "descargo de responsabilidad" proviene de la senadora bipartidista Clore Malofsky. Sin embargo, el problema es que si se marca un descargo de responsabilidad en un contenido cuya autenticidad se desconoce, la gente estará más inclinada a desconfiar del contenido, debilitando así la credibilidad de toda la información con esta marca y la eficacia del efecto propagandístico relacionado, incluso si el contenido no se conoce. El contenido identificado puede ser auténtico.

El enfoque para exigir a los equipos de campaña que aumenten la transparencia y la divulgación proactiva es exigir que las campañas revelen de manera proactiva cuándo y cómo se utilizan los sistemas de inteligencia artificial. Lo que pasa es que este método actualmente carece de suficiente confianza y garantía, porque aunque este plan asigna la responsabilidad a los propios candidatos, si los propios candidatos no quieren ser responsables, no están dispuestos a revelar proactivamente o incluso ocultar deliberadamente sus acciones, entonces la recolección La obtención de pruebas será bastante costosa, sobre todo porque todavía existen ciertos umbrales técnicos.

Además, si se trata solo de una multa o algunas sanciones administrativas menores, entonces los candidatos pueden estar listos para ser castigados. Después de todo, una vez que los beneficios generados por la aplicación incorrecta del AGI sean mayores que el costo de la sanción, sin duda lo será. Dar a los candidatos un "legal" significa pagar un precio por la oportunidad de utilizar un arma homicida en masa. Sin embargo, ante la tentación de ganar las elecciones presidenciales, ¿cuántas fichas debería poner la legislatura en el costo de violar la ley para hacer ¿La gente tiene miedo?

Al mismo tiempo, también debemos ver que en el incidente de las fotografías falsas de Trump con personas negras y el incidente de la llamada telefónica de IA de Biden, el iniciador del comportamiento no fue el propio candidato (al menos no en la superficie), por lo que también hay responsabilidad involucrada. Después de todo, asignar responsabilidades a miles de seguidores no crea un gran elemento disuasorio.

La educación pública es una solución inmediata, aunque no resuelve fundamentalmente el problema. Debemos saber que no todo el mundo tiene la capacidad de digerir información profundamente falsa, especialmente cuando el contenido profundamente falso es una mezcla de verdadero y falso. Educar activamente a los votantes de forma regular durante las elecciones, diciéndoles cómo identificar contenidos profundamente falsos y cómo procesar la información de manera objetiva, será de gran ayuda para aquellos votantes que están atrapados en un capullo de información o que no están bien educados.

En cualquier caso, ha llegado la era electoral de profunda integración de los AGI. Cómo identificar la autenticidad de la información, cómo protegerse contra los oponentes y cómo establecer un mecanismo regulatorio y evaluar la efectividad de las políticas públicas se han convertido en desafíos comunes que enfrentan ambos partidos en esta elección.

Nota:

[1]AP: Un anuncio de parodia compartido por Elon Musk clona la voz de Kamala Harris, lo que genera preocupaciones sobre la inteligencia artificial en la política.

https://apnews.com/article/parody-ad-ai-harris-musk-x-misleading-3a5df582f911a808d34f68b766aa3b8e

[2] The Paper: Se acercan las elecciones estadounidenses y el dilema de la información falsa en el juego de la IA

https://www.thepaper.cn/newsDetail_forward_27359556

[3] Sun Chenghao: La intervención de la inteligencia artificial generativa en la propaganda electoral estadounidense: caminos, escenarios y riesgos, 2024-7, P4-5.

[4]The Brookings: Los peligros que plantean la IA y la desinformación durante las elecciones, 2024-3

https://www.brookings.edu/events/the-dangers-posed-by-ai-and-disinformation-during-elections/

[5]The Brookings: Regulación de la IA de propósito general: áreas de convergencia y divergencia en la UE y los EE. UU., 2024-2025

https://www.brookings.edu/articles/regulating-general-Purpose-ai-areas-of-convergence-and-divergence-across-the-eu-and-the-us/

[6]The Brookings: Mecánica mal entendida: cómo la IA, TikTok y el dividendo del mentiroso podrían afectar las elecciones de 2024, 2024-1

https://www.brookings.edu/articles/misunderstood-mechanics-how-ai-tiktok-and-the-liars-dividend-might-affect-the-2024-elections/


Este artículo es un manuscrito exclusivo de Observer.com. El contenido del artículo es puramente la opinión personal del autor y no representa la opinión de la plataforma. No puede reproducirse sin autorización, de lo contrario se perseguirá la responsabilidad legal. Siga Observer.com en WeChat guanchacn y lea artículos interesantes todos los días.