Minhas informações de contato
Correspondênciaadmin@informação.bz
2024-08-17
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
[Texto/Rede de Observadores Liao Yiheng]
Com o advento da era da IA, as eleições deste ano nos EUA também são consideradas por alguns estudiosos como o primeiro "uso em larga escala de inteligência artificial para influenciar os eleitores. Muitos eventos que ocorreram nesta eleição também confirmaram as opiniões de muitos". pessoas nos Estados Unidos Há preocupações de que a intervenção de grandes modelos linguísticos nas eleições tenha um impacto negativo no sistema democrático americano. Se o incidente de gravação profundamente falsa da AGI nas eleições eslovacas em 2023 for apenas o primeiro caso de intervenção da IA nas eleições, então as eleições em curso nos EUA podem ser consideradas como uma grande batalha da intervenção da AGI nas eleições.
No início de agosto, Trump acusou "a foto de milhares de pessoas esperando por Harris quando ela desceu do avião no comício de Detroit foi falsificada pela IA, embora tenha sido negada pela equipe de Harris, incluindo também equipes de investigação da Reuters de vários meios de comunicação!" justificou o nome de Harris O barulho no comício de Harris foi realmente verdade, mas também mostra que o povo americano está muito nervoso com a intervenção da tecnologia de IA nas eleições.
Em 7 de agosto, horário local, um grupo de pessoas esperava a vice-presidente Kamala Harris e o governador de Minnesota, Tim Walz, para participar de um comício de campanha no aeroporto Romulus, em Michigan. Donald Trump criticou o comparecimento aos comícios e fez afirmações falsas sobre as fotos do evento. Fotos da Internet
Coincidentemente, em 26 de julho deste ano, Musk compartilhou um vídeo profundamente falso sobre Harris em sua plataforma X, com o texto “Isso é incrível” e um emoticon risonho. Neste vídeo, há muitos materiais publicitários de campanha anteriores da equipe de campanha de Harris, bem como uma narração de Harris que é suficiente para provocar conflitos entre gênero e raça nos Estados Unidos: "Eu sou uma mulher e uma pessoa de cor. Se você critica qualquer coisa que eu diga. Se você disser isso, então você é sexista e racista.”
O vídeo recebeu mais de 100 milhões de visualizações em três dias e causou alvoroço. Na verdade, este vídeo não foi filmado pelo próprio Harris, mas foi sintetizado por inteligência artificial generativa e acompanhado pela voz sintetizada de Harris, que é bastante realista. Mas Musk não rotulou o vídeo como falso na postagem.
A equipe de campanha de Harris expressou sérios protestos e enfatizou em um comunicado: “Este incidente é um bom exemplo de como imagens realistas, vídeos ou vídeos gerados por inteligência artificial podem ser usados à medida que as eleições presidenciais dos EUA se aproximam. e enganar a política.”
Vídeo republicado por Musk em sua própria rede social X. O vídeo foi sintetizado por inteligência artificial generativa (AGI) e combinado com algumas informações reais da campanha para torná-lo muito realista. Fotos da Internet
Na verdade, a história da intervenção da tecnologia de IA nas eleições dos EUA tem-se revelado desde o início deste ano. Mesmo antes de Biden desistir da corrida, houve um incidente de “AI Biden” interrompendo as primárias de New Hampshire. De acordo com relatos relevantes, alguns eleitores receberam ligações usando a voz sintetizada de Biden em 21 de janeiro deste ano, pedindo-lhes que guardassem seus votos para a eleição final em novembro, e alegando que se participassem das eleições primárias do partido, não poderão mais para participar da eleição final. Mais tarde, Hani Farid, especialista em perícia digital da Universidade da Califórnia, Berkeley, confirmou que a voz do telefone foi na verdade forjada por tecnologia de inteligência artificial “relativamente inferior”.
Posteriormente, em 25 de fevereiro deste ano, Steve Kramer, consultor político do candidato presidencial democrata e congressista Phillips, admitiu que contratou Carpenter e pediu a Carpenter que inventasse o software Baidu por meio da voz de Deng e planejasse esta tempestade telefônica, o. o apelo aos eleitores foi apenas para “lembrar o público de se proteger contra aplicações enganosas de IA”.
Magic Carpenter descreveu à mídia o processo de solicitação para criar um áudio de “chamada falsa de Biden”. Fotos da Internet
A disputa de IA entre os dois partidos nas eleições dos EUA já começou. O Partido Democrata também viu a experiência ousada e sofisticada do Partido Republicano no uso da IA.
Em março deste ano, fotos de Trump e de eleitores negros continuaram a aparecer nas redes sociais americanas. Uma equipe de investigação do programa factual Panorama da BBC descobriu que o que havia em comum nas imagens era que todas retratavam pessoas negras apoiando o ex-presidente Trump e sugerindo que votariam no Partido Republicano. Na verdade, as imagens avançam uma narrativa estratégica: Trump é agora extremamente popular na comunidade negra. Você deve saber que os eleitores negros são a chave para a vitória de Biden nas eleições de 2020.
É claro que essas imagens deepfake acabaram sendo descobertas, mas durante o processo de disseminação, essas fotos deepfake não tinham marcas d'água ou anotações para indicar seus atributos não reais. Embora alguns internautas atentos possam detectar a distorção no brilho e na textura dessas fotos, nem todos têm energia e julgamento suficientes para identificá-las.
Trump abraçou um grupo de mulheres negras. Posteriormente, foi confirmado que a foto foi falsificada por inteligência artificial generativa. Fotos da Internet
Após investigação, descobriu-se que algumas dessas fotos vieram de contas que satirizavam Trump, mas foram amplamente divulgadas após a limpeza, e algumas foram geradas pelos próprios fanáticos apoiadores de Trump. O criador de uma das imagens disse à BBC: “Eu não disse que era uma foto real”. Esse tipo de resposta faz as pessoas se sentirem desamparadas, porque antes que o AGI gerasse fotos profundamente falsas, a maioria das pessoas adotava o julgamento de “ver para crer”.
Além das informações falsas espalhadas espontaneamente pelos seguidores fanáticos de Trump, a própria campanha de Trump também está a aumentar a sua atenção e investimento no campo da IA. Os registos de financiamento de campanha mostram que a equipa de Trump, o Comité Nacional Republicano e os seus comités de angariação de fundos relacionados pagaram mais de 2,2 milhões de dólares a empresas relacionadas, como a Campaign Nucleus, propriedade do antigo gestor de campanha de Trump, Parscale. Os negócios da Campaign Nucleus incluem o uso de AGI para ajudar a gerar e-mails personalizados, analisar uma ampla gama de dados para medir o sentimento do eleitor, encontrar eleitores influentes e amplificar as postagens de influenciadores "anti-despertar" nas redes sociais. O foco está no uso da tecnologia de IA para analisar apoiadores de missões políticas para construir perfis e buscar manipular as preferências dos eleitores por meio de programas personalizados.
Vale a pena mencionar que alguns líderes tecnológicos também mudaram a sua postura política e começaram a apoiar Trump. Esta parece ser uma corrida de mão dupla. Uma das figuras icônicas é Elon Musk. Após o incidente com o tiroteio em Trump, Musk anunciou oficialmente em sua plataforma social X que apoiava a candidatura do ex-presidente Trump e estava disposto a fornecer fundos para apoiar sua campanha.
Embora a inversão do apoio de alguns líderes de Silicon Valley ao Partido Republicano esteja directamente relacionada com as deficiências das políticas de diversidade, a razão mais ampla também se deve às suas considerações sobre o futuro da indústria tecnológica. Em suma, elementos como fundos e plataformas de comunicação estão profundamente associados ao apoio da tecnologia AGI e exerceram um poder inesperado.
O segredo para uma caixa preta bem tecida
Tendo testemunhado a capacidade sem precedentes da AGI de turvar as águas nas eleições, não podemos deixar de perguntar: Qual é o mecanismo para a intervenção da AGI nas eleições?
Conteúdo profundamente falso (Deepfakes) gerado pela AGI, incluindo texto, áudio, imagens e vídeos. Estes elementos enredam profundamente os elementos informativos e cognitivos da propaganda eleitoral e, de facto, têm estado profundamente ligados ao modelo de comunicação política. Ao incorporar-se profundamente no processo eleitoral, a AGI desafia as percepções dos eleitores, causando efeitos de fortalecimento e de abalo, atingindo assim o objectivo de manipular os eleitores.
Estrutura de análise de propaganda eleitoral dos EUA Sun Chenghao: A intervenção da inteligência artificial generativa na propaganda eleitoral dos EUA: caminhos, cenários e riscos, 2024-7. [3]
O mecanismo de propaganda eleitoral nos Estados Unidos consiste principalmente em três fases: entrada, processamento e saída. Os candidatos e os partidos políticos realizam actividades de campanha para ganhar eleições. Esta actividade visa essencialmente persuadir os eleitores e permitir-lhes processar e digerir o conteúdo da propaganda política e, em última análise, atingir o objectivo de permitir que os eleitores façam escolhas.
Com o empoderamento profundo da AGI, no campo da propaganda eleitoral nos EUA, processos incluindo registro eleitoral, análise de dados eleitorais, análise de previsão eleitoral, formulação de estratégia eleitoral, rastreamento de processo eleitoral, entrega de publicidade e recursos eleitorais relacionados à assistência ao eleitor, todos tomaram em novos formulários.
Em termos de previsão eleitoral, análise de dados eleitorais, formulação de estratégias eleitorais e assistência aos eleitores, o desempenho actual da AGI está geralmente no bom caminho. Especificamente, ajuda as equipas de campanha e os decisores a analisar a situação eleitoral de forma mais rápida e cuidadosa e a gerar gráficos em tempo real. Ajuda os candidatos a analisar os retratos dos eleitores e a formular estratégias de segmentação aprofundadas. e eleitores através de respostas automáticas de e-mail da AGI e outros métodos. A qualidade da interação pode melhorar o efeito de feedback e servir como uma enciclopédia eleitoral para fornecer aos eleitores as informações eleitorais necessárias e oportunas.
Mas noutros aspectos, a aplicação aprofundada da AGI expôs obviamente alguns problemas. No recenseamento eleitoral, a intenção original da AGI é aumentar a participação eleitoral através da geração activa de e-mails ou de chamadas telefónicas. No entanto, o incidente do "telefonema AI Biden" no início do ano provou que a AGI também pode "brilhar" ao interromper a votação dos eleitores.
Em termos de rastreamento do processo eleitoral e entrega de publicidade, o significado positivo do empoderamento da AGI é identificar atividades anormais no processo eleitoral, prevenir fraudes e ataques à rede, manter a ordem da eleição, identificar grupos subdivididos e fornecer informações eleitorais com precisão para sobre esses eleitores. Mas no incidente da fotografia negra de Trump e no anterior incidente de gravação na Eslováquia, podemos ver que a AGI desempenha o papel oposto. Manter a ordem e a entrega precisa transformou-se numa entrega perturbadora e profundamente falsa.
Os danos causados pela ecologia da campanha perturbada pela AGI à cognição dos eleitores reflectem-se principalmente em dois aspectos: abalar a cognição dos eleitores e fortalecer a cognição dos eleitores.
Em termos de efeito desestabilizador, no incidente das fotos falsas de Trump e dos negros, para conquistar os negros, especialmente os jovens negros, a AGI ajudou a gerar uma série de fotos profundamente falsas. Através do posicionamento preciso da AGI, estas fotos profundamente falsas foram discretamente divulgadas aos eleitores, desafiando as percepções anteriores dos eleitores negros e influenciando os jovens eleitores hesitantes.
Em termos de fortalecimento do efeito, quanto à própria informação de propaganda, a velocidade de geração de AGI pode trazer à equipe eleitoral a vantagem propagandística do bombardeio massivo de informações, e até mesmo a qualidade dos direitos autorais pode captar com mais precisão os "pontos problemáticos" dos eleitores e atrair suas doações. Além disso, o antropomorfismo da AGI, como os robôs políticos, pode ajudar os partidos políticos a aproximarem-se dos eleitores e a conseguirem comunicação e feedback eficientes.
É importante notar que o efeito de reforço flexível da AGI e a capacidade de gerar grandes quantidades de informação num curto período de tempo e de a empurrar com precisão serão rapidamente amplificados durante períodos específicos de comunicação política, causando facilmente a propagação explosiva de informações profundas e falsas. Estas situações ocorrem frequentemente no início das eleições e durante o período de silêncio das eleições, quando várias entidades de propaganda ainda não entraram no local, ou são expulsas à força do local de propaganda.
O mecanismo pelo qual a informação processada pela inteligência artificial generativa destrói a cognição dos eleitores Sun Chenghao: A intervenção da inteligência artificial generativa na propaganda eleitoral dos EUA: caminhos, cenários e riscos, 2024-7. [3]
Além disso, alguns AGIs têm ideologias potenciais. Por exemplo, o famoso GhatGPT foi apontado num teste como tendo uma posição ideológica de esquerda óbvia. Neil Postman mencionou certa vez um ponto de vista ao analisar a tecnologia da mídia: “A mídia é uma metáfora”. Ele acreditava que a própria mídia carrega implicações poderosas e pode mudar a maneira de pensar das pessoas para redefinir a realidade. Já no período da “eleição do Twitter” e da “governação do Twitter” de Trump, sentimos o poder dos meios de comunicação social para moldar os eleitores. Agora, quando a AGI fortalece fortemente a plataforma mediática, esta metáfora em si pode ser facilmente amplificada infinitamente.
Rumo às eleições cibernéticas
Em março deste ano, especialistas relevantes da Brookings Institution dos Estados Unidos realizaram uma discussão off-line para discutir os riscos representados pela inteligência artificial e informações falsas durante as eleições. Eles acreditam que os riscos atuais que a AGI traz para as eleições estão concentrados em três aspectos: a profunda integração da legislação, da tecnologia e dos mecanismos de comunicação.
Seminário, da esquerda para a direita estão Darrell M. West (Senior Fellow, Center for Technology Innovation), Soheil Feizi (Professor Associado, Departamento de Ciência da Computação, Universidade de Maryland), Shana M Broussard (Comissário da Comissão Eleitoral Federal), Matt Perault ( Universidade da Carolina do Norte em Chapel Hill) Diretor do Campus Technology Policy Center) Captura de tela do vídeo
A nível legislativo, o governo federal dos EUA não está obviamente pronto para legislar contra a interferência da AGI nas eleições. A maior parte da responsabilidade ainda recai sobre a legislação estatal e as principais plataformas de comunicação social privadas.
Em 30 de outubro de 2023, o presidente Biden assinou a Ordem Executiva 14110 sobre “Desenvolvimento e Uso Seguro, Protegido e Confiável de Inteligência Artificial”. Esta Ordem Executiva é a abordagem mais abrangente para a governança da inteligência artificial nos Estados Unidos até o momento, abrangendo a Cobertura. áreas que vão desde novos padrões da indústria para segurança de IA até proteções de privacidade, direitos civis, interesses dos trabalhadores, inovação tecnológica, uso governamental de IA e liderança internacional dos EUA.
Até certo ponto, esta ordem executiva pode ser considerada como um roteiro para a futura legislação no domínio da segurança da inteligência artificial nos Estados Unidos, ajudando a evitar a repetição da trajectória divisiva da governação anterior e permitindo que o trabalho regulamentar retorne de propostas dispersas por parte dos estados para o sistema federal sob gestão. No entanto, este “método de governação artificial abrangente” ainda está na sua infância e os problemas causados pela AGI doméstica nas eleições já estão a entrar em vigor.
A nível técnico, embora algumas pessoas tenham proposto a utilização de marcas de água digitais para identificar conteúdos gerados profundamente falsos, os especialistas dizem que isto não é fiável. Estas marcas d’água podem ser facilmente apagadas durante o processo de geração do AGI, e esta é uma limitação técnica básica que é difícil de resolver no curto prazo. O método mais eficaz actualmente é esperar que o sector privado possa fornecer proactivamente alguns serviços de revisão. Embora não seja suficiente para resolver o problema face a uma legislação melhorada, pode pelo menos desempenhar algum papel.
Ao nível de afectar o mecanismo de comunicação, os especialistas presentes na reunião afirmaram que as informações falsas afectam, na verdade, a oscilação de 5% a 10% dos eleitores, e a grande maioria dos eleitores já decidiu o seu campo desde o início. Sobre este ponto, outros especialistas dizem que não precisamos de ser demasiado pessimistas quanto ao surgimento de desinformação profunda:
Em primeiro lugar, as notícias falsas representam apenas uma pequena parte da informação recebida pelas pessoas comuns. “Um estudo de 2020 descobriu que, para o americano médio, são gastas cerca de 7,5 horas de tempo de mídia por dia, das quais cerca de 14% são relacionadas a notícias, principalmente da televisão. Outro estudo recente estimou que, para o adulto americano médio, para usuários do Facebook, mesmo nos meses que antecederam as eleições de 2020 nos EUA, menos de 7% do conteúdo que viram era relacionado a notícias."
Em segundo lugar, devido à profunda desinformação que existe, a investigação mostra que ela está concentrada principalmente entre um pequeno número de americanos. Isso pode estar relacionado ao casulo de informações causado pelo algoritmo, mas essas informações falsas profundas geralmente não conseguem atingir a grande maioria do público on-line, especialmente depois que o AGI ajuda a dividir profundamente o grupo de usuários, a base de usuários correspondente a informações específicas torna-se menor .
Além de fortalecer a legislação federal e promover empresas de tecnologia para controlar conjuntamente a AGI, promover "isenções de responsabilidade", exigir que as equipes de campanha aumentem a transparência nas atividades de campanha e fortalecer a educação pública também se tornaram soluções que estão sendo discutidas.
A pressão por uma solução de “isenção de responsabilidade” vem do senador bipartidário Clore Malofsky. No entanto, o problema é que se um aviso de isenção de responsabilidade for marcado em conteúdos cuja autenticidade é desconhecida, as pessoas estarão mais inclinadas a desconfiar do conteúdo, enfraquecendo assim a credibilidade de todas as informações com esta marca e a eficácia do efeito de propaganda relacionado. o conteúdo identificado pode ser autêntico.
A abordagem para exigir que as equipas de campanha aumentem a transparência e a divulgação proativa consiste em exigir que as campanhas divulguem proativamente quando e como os sistemas de inteligência artificial são utilizados. Acontece que este método carece actualmente de confiança e garantia suficientes, porque embora este plano coloque a responsabilidade sobre os próprios candidatos, se os próprios candidatos não quiserem ser responsáveis, não estiverem dispostos a divulgar proactivamente ou mesmo ocultar deliberadamente as suas acções, então a recolha de evidência será bastante dispendioso, especialmente porque ainda existem certos limites técnicos.
Além disso, se for apenas uma multa ou algumas sanções administrativas menores, então os candidatos podem estar prontos para serem punidos. Afinal, uma vez que os benefícios trazidos pela aplicação incorreta da AGI sejam maiores que o custo da penalidade, sem dúvida isso será. dar aos candidatos um "" Legal "significa pagar um preço pela oportunidade de usar uma arma de assassinato em massa. No entanto, diante da tentação de vencer a eleição presidencial, quantas fichas o legislador deveria investir no custo de infringir a lei para fazer pessoas com medo?
Ao mesmo tempo, devemos também ver que no incidente da foto falsa de Trump com pessoas negras e no incidente do telefonema de IA de Biden, o iniciador do comportamento não foi o próprio candidato (pelo menos não na superfície), então também há responsabilidade envolvida Afinal de contas, a divisão atribui responsabilidade a milhares de apoiantes não cria um grande impedimento.
A educação pública é uma solução imediata, embora não resolva fundamentalmente o problema. Devemos saber que nem todos os cidadãos têm a capacidade de digerir informações profundamente falsas, especialmente quando o conteúdo profundamente falso é uma mistura de verdadeiro e falso. Ao educar activamente os eleitores regularmente durante as eleições, dizendo-lhes como identificar conteúdos profundamente falsos e como processar a informação objectivamente, será de grande ajuda para os eleitores que estão presos num casulo de informação ou que não são bem educados.
Em qualquer caso, a era eleitoral de profunda integração da AGI chegou. Como identificar a autenticidade da informação, como se proteger contra adversários e como estabelecer um mecanismo regulador e avaliar a eficácia das políticas públicas tornaram-se desafios comuns enfrentados por ambos os partidos nesta eleição.
Observação:
[1]AP: Um anúncio de paródia compartilhado por Elon Musk clona a voz de Kamala Harris, levantando preocupações sobre IA na política.
https://apnews.com/article/parody-ad-ai-harris-musk-x-misleading-3a5df582f911a808d34f68b766aa3b8e
[2] The Paper: As eleições nos EUA estão se aproximando e o dilema das informações falsas no jogo da IA
https://www.thepaper.cn/newsDetail_forward_27359556
[3] Sun Chenghao: A intervenção da inteligência artificial generativa na propaganda eleitoral dos EUA: caminhos, cenários e riscos, 2024-7, P4-5.
[4]The Brookings: Os perigos colocados pela IA e pela desinformação durante as eleições, 2024-3
https://www.brookings.edu/events/the-dangers-posed-by-ai-and-disinformation-during-elections/
[5]The Brookings:Regulamentação da IA de uso geral: Áreas de convergência e divergência na UE e nos EUA, 2024-5
https://www.brookings.edu/articles/regulating-general-purpose-ai-areas-of-convergence-and-divergence-across-the-eu-and-the-us/
[6]The Brookings: Mecânica mal compreendida: como a IA, o TikTok e o dividendo do mentiroso podem afetar as eleições de 2024, 2024-1
https://www.brookings.edu/articles/misunderstood-mechanics-how-ai-tiktok-and-the-liars-dividend-might-affect-the-2024-elections/
Este artigo é um manuscrito exclusivo do Observer.com. O conteúdo do artigo é puramente a opinião pessoal do autor e não representa a opinião da plataforma. Não pode ser reproduzido sem autorização, caso contrário, será responsabilizada legalmente. Siga Observer.com no WeChat guanchacn e leia artigos interessantes todos os dias.