новости

Вы думали, что голосуете за президента, но ИИ уже выбрал его за вас.

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

[Текст/Сеть наблюдателей Ляо Ихэн]

С наступлением эпохи искусственного интеллекта выборы в США в этом году некоторые ученые также расценивают как первое «масштабное использование искусственного интеллекта для воздействия на избирателей». Многие события, произошедшие на этих выборах, также подтвердили мнение многих. В США существуют опасения, что вмешательство крупных языковых моделей в выборы окажет негативное влияние на американскую демократическую систему. Если инцидент с дипфейковой записью AGI на выборах в Словакии в 2023 году является лишь первым случаем вмешательства ИИ в выборы, то текущие выборы в США можно рассматривать как большую битву вмешательства AGI в выборы.

В начале августа Трамп обвинил «фото тысяч людей, ожидающих Харрис, когда она вышла из самолета на митинге в Детройте, было сфальсифицировано искусственным интеллектом», хотя это было опровергнуто командой Харрис, включая группы расследований Reuters из нескольких СМИ! подтвердил имя Харриса. Громкий шум на митинге Харриса действительно был правдой, но он также показывает, что американский народ очень нервничает по поводу вмешательства технологий искусственного интеллекта в выборы.


7 августа по местному времени группа людей ждала вице-президента Камалу Харрис и губернатора Миннесоты Тима Уолца, которые примут участие в предвыборном митинге в аэропорту Ромулус в Мичигане. Дональд Трамп выступил против явки на митинги и сделал ложные заявления по поводу фотографий с мероприятия. Интернет-картинки

По совпадению, 26 июля этого года Маск поделился на своей платформе X глубоким фейковым видео о Харрис с текстом «Это потрясающе» и смеющимся смайликом. В этом видео есть много рекламных материалов предыдущей кампании предвыборной команды Харриса, а также повествование Харриса, которого достаточно, чтобы спровоцировать конфликты между полом и расой в Соединенных Штатах: «Я женщина и цветной человек. Если вы критикуете все, что я говорю. Если вы так говорите, значит, вы сексист и расист».

Видео за три дня набрало более 100 миллионов просмотров и вызвало бурю негодования. На самом деле это видео не было снято самим Харрисом, а было синтезировано генеративным искусственным интеллектом и сопровождалось синтезированным голосом Харриса, что вполне реалистично. Но Маск в своем посте не назвал видео фейковым.

Команда предвыборного штаба Харриса выразила серьезный протест и подчеркнула в своем заявлении: «Этот инцидент является хорошим примером того, как реалистичные изображения, видео или видеоролики, созданные искусственным интеллектом, могут использоваться по мере приближения президентских выборов в США. Как аудиоклипы используются, чтобы посмеяться». и вводить в заблуждение политику».


Видео репостил Маск в своей социальной сети X. Видео было синтезировано с помощью генеративного искусственного интеллекта (AGI) и смешано с некоторой реальной информацией кампании, чтобы сделать его очень реалистичным. Интернет-картинки

Фактически, история вмешательства технологий искусственного интеллекта в выборы в США разворачивается с начала этого года. Еще до того, как Байден выбыл из гонки, произошел инцидент, когда «ИИ Байден» сорвал первичные выборы в Нью-Гэмпшире. Согласно соответствующим сообщениям, некоторым избирателям 21 января этого года звонили с использованием синтезированного голоса Байдена с просьбой сохранить свои голоса для окончательных выборов в ноябре и утверждением, что, если они примут участие в первичных выборах партии, вы больше не сможете принять участие в окончательных выборах. Позже Хани Фарид, эксперт по цифровой криминалистике из Калифорнийского университета в Беркли, подтвердил, что телефонный голос на самом деле был подделан с помощью «относительно низшей» технологии искусственного интеллекта.

Впоследствии, 25 февраля этого года, Стив Крамер, политический консультант кандидата в президенты от Демократической партии и конгрессмена Филлипса, признал, что нанял Карпентера и попросил Карпентера разработать программное обеспечение Baidu с помощью программного обеспечения искусственного интеллекта Дэна и спланировать этот телефонный шторм. призыв к избирателям был просто «напомнить общественности о необходимости избегать вводящих в заблуждение применений ИИ».


Мэджик Карпентер описал СМИ процесс, когда его попросили создать аудиозапись «фальшивого звонка Байдена». Интернет-картинки

Соревнование ИИ между двумя партиями на выборах в США уже началось. Демократическая партия также стала свидетелем смелого и сложного опыта Республиканской партии в использовании ИИ.

В марте этого года фотографии Трампа и чернокожих избирателей продолжали появляться в американских социальных сетях. Группа расследований фактологической программы BBC «Панорама» обнаружила, что общее в изображениях заключалось в том, что на всех них были изображены чернокожие люди, поддерживающие бывшего президента Трампа и предполагающие, что они проголосуют за Республиканскую партию. На самом деле эти изображения развивают стратегическое повествование: Трамп сейчас пользуется бешеной популярностью среди чернокожего сообщества. Вы должны знать, что чернокожие избиратели являются ключом к победе Байдена на выборах 2020 года.

Конечно, эти дипфейковые изображения в конечном итоге были обнаружены, но в процессе распространения на этих дипфейковых фотографиях не было водяных знаков или аннотаций, указывающих на их ненастоящие атрибуты. Хотя некоторые внимательные пользователи сети могут заметить искажения в блеске и текстуре этих фотографий, не у всех хватает энергии и рассудительности, чтобы их идентифицировать.


Трамп обнял группу чернокожих женщин. Позже было подтверждено, что фотография была подделана с помощью генеративного искусственного интеллекта. Интернет-картинки

После расследования выяснилось, что некоторые из этих фотографий взяты из аккаунтов, высмеивающих Трампа, но получили широкое распространение после очистки, а некоторые были созданы фанатичными сторонниками Трампа. Создатель одного из изображений рассказал Би-би-си: «Я не говорил, что это настоящая фотография». Такой ответ заставляет людей чувствовать себя беспомощными, потому что до того, как AGI создаст глубоко фальшивые фотографии, большинство людей по умолчанию придерживаются суждения «увидеть — значит поверить».

Помимо ложной информации, спонтанно распространяемой фанатичными последователями Трампа, сама предвыборная кампания Трампа также увеличивает свое внимание и инвестиции в область ИИ. Отчеты о финансировании предвыборной кампании показывают, что команда Трампа, Республиканский национальный комитет и связанные с ним комитеты по сбору средств заплатили более 2,2 миллиона долларов связанным компаниям, таким как Campaign Nucleus, принадлежащая бывшему руководителю предвыборного штаба Трампа Парскалю. В сферу деятельности Campaign Nucleus входит использование AGI для создания персонализированных электронных писем, анализа широкого спектра данных для измерения настроений избирателей, поиска влияния на избирателей и усиления публикаций в социальных сетях влиятельных лиц, выступающих против пробуждения. Основное внимание уделяется использованию технологии искусственного интеллекта для анализа сторонников политических миссий с целью создания профилей и попыток манипулировать предпочтениями избирателей с помощью персонализированных программ.

Стоит отметить, что некоторые технологические лидеры также изменили свою политическую позицию и начали поддерживать Трампа. Похоже, это двусторонняя гонка. Одной из знаковых фигур является Илон Маск. После инцидента со стрельбой в Трампе Маск официально объявил на своей социальной платформе X, что поддерживает кандидатуру бывшего президента Трампа и готов предоставить средства для поддержки его кампании.

Хотя отказ от поддержки Республиканской партии некоторыми лидерами Кремниевой долины напрямую связан с недостатками политики многообразия, более широкая причина также связана с их соображениями о будущем технологической индустрии. Короче говоря, такие элементы, как фонды и коммуникационные платформы, тесно связаны с поддержкой технологии искусственного интеллекта и обладают неожиданной силой.

Секрет тесно сплетенного черного ящика

Став свидетелями беспрецедентной способности AGI мутить воду на выборах, мы не можем не задаться вопросом: каков механизм вмешательства AGI в выборы?

Глубокий фейковый контент (Deepfakes), созданный AGI, включая текст, аудио, изображения и видео. Эти элементы глубоко переплетают информационные и когнитивные элементы предвыборной пропаганды и фактически тесно связаны с моделью политической коммуникации. Глубоко внедряясь в избирательный процесс, AGI бросает вызов восприятию избирателей, вызывая как усиливающий, так и потрясающий эффект, тем самым достигая цели манипулирования избирателями.


Система анализа предвыборной пропаганды в США Сунь Чэнхао: Вмешательство генеративного искусственного интеллекта в предвыборную пропаганду в США: пути, сценарии и риски, 2024–2027 гг. [3]

Механизм предвыборной пропаганды в США в основном состоит из трех этапов: ввод, обработка и вывод. Кандидаты и политические партии проводят агитационную деятельность с целью победы на выборах. Эта деятельность, по сути, направлена ​​на то, чтобы убедить избирателей и дать им возможность обработать и усвоить содержание политической пропаганды и, в конечном итоге, достичь цели, позволяющей избирателям сделать выбор.

Благодаря расширению возможностей AGI в области предвыборной пропаганды в США, процессов, включая регистрацию избирателей, анализ данных избирателей, анализ прогнозов выборов, формулирование избирательной стратегии, отслеживание избирательного процесса, рекламную кампанию и ресурсы, связанные с выборами, связанные с помощью избирателям, все взяли на себя на новых формах.

С точки зрения прогнозирования выборов, анализа данных избирателей, формулирования избирательной стратегии и помощи избирателям, текущие показатели AGI в целом находятся на хорошем уровне. В частности, это помогает избирательным группам и лицам, принимающим решения, более быстро и тщательно анализировать ситуацию на выборах и создавать диаграммы в режиме реального времени. Это помогает кандидатам анализировать портреты избирателей и формулировать стратегии углубленной сегментации. В то же время это улучшает отношения между кандидатами. и избирателей посредством автоматических ответов по электронной почте AGI и других методов. Качество взаимодействия может усилить эффект обратной связи и служить избирательной энциклопедией для предоставления избирателям необходимой и своевременной информации о выборах.

Но в других аспектах углубленное применение ОИИ явно выявило некоторые проблемы. При регистрации избирателей первоначальная цель AGI — повысить явку избирателей за счет активной рассылки электронных писем или телефонных звонков. Однако инцидент с «телефонным звонком AI Байдену» в начале года доказал, что AGI также может «ярко проявить себя» в срыве голосования избирателей.

С точки зрения отслеживания избирательного процесса и обеспечения гласности, положительное значение расширения возможностей AGI заключается в выявлении аномальных действий в избирательном процессе, предотвращении сетевого мошенничества и сетевых атак, поддержании порядка выборов, выявлении разделенных групп и точной доставке информации о выборах на этих избирателей. Но в инциденте с черной фотографией Трампа и предыдущем инциденте со словацкой записью мы видим, что AGI играет противоположную роль. Поддержание порядка и точная доставка превратились в разрушительную и глубоко ложную доставку.

Ущерб, нанесенный познанию избирателей экологией предвыборной кампании, нарушенной AGI, в основном отражается в двух аспектах: потрясении познания избирателей и усилении познания избирателей.

Что касается дестабилизирующего эффекта, то в случае с фальшивыми фотографиями Трампа и чернокожих, чтобы привлечь на свою сторону чернокожих, особенно молодых чернокожих, AGI помогла создать серию глубоко фальшивых фотографий. Благодаря точному позиционированию AGI, эти глубоко фальшивые фотографии были незаметно предоставлены избирателям, бросив вызов прежним представлениям о чернокожих избирателях и поколебав колеблющихся молодых избирателей.

С точки зрения усиления эффекта, что касается самой пропагандистской информации, скорость генерации AGI может принести избирательной команде пропагандистское преимущество в виде массовой информационной бомбардировки, и даже качество копирайтинга может более точно уловить «болевые точки» избирателей и привлечь их пожертвования. Кроме того, антропоморфизм ОИИ, таких как роботы-политики, может помочь политическим партиям стать ближе к избирателям и добиться эффективной коммуникации и обратной связи.

Стоит отметить, что эффект гибкого подкрепления AGI и способность генерировать огромные объемы информации за короткий период времени и точно продвигать ее будут быстро усиливаться в определенные периоды политической коммуникации, легко вызывая взрывное распространение глубокой ложной информации. Подобные ситуации часто возникают в начале выборов и в «тихий» период выборов, когда различные пропагандистские субъекты еще не вошли на объект или были принудительно удалены с места пропаганды.


Механизм, с помощью которого информация, обработанная генеративным искусственным интеллектом, разрушает познание избирателей Сунь Чэнхао: Вмешательство генеративного искусственного интеллекта в предвыборную пропаганду в США: пути, сценарии и риски, 2024–2027 годы. [3]

Кроме того, некоторые AGI сами обладают потенциальной идеологией. Например, в ходе теста было отмечено, что знаменитый GhatGPT имеет очевидную левую идеологическую позицию. Нил Постман однажды упомянул точку зрения при анализе медиа-технологий: «СМИ — это метафора». Он считал, что средства массовой информации сами по себе несут в себе важные последствия и могут изменить образ мышления людей, переопределив реальность. Еще в период «выборов в Твиттере» и «управления Твиттером» Трампа мы почувствовали силу средств массовой информации формировать избирателей. Теперь, когда AGI сильно расширяет возможности медиа-платформы, эту метафору можно легко расширить до бесконечности.

На пути к кибервыборам

В марте этого года профильные эксперты Брукингского института в США провели офлайн-дискуссию, чтобы обсудить риски, связанные с искусственным интеллектом и ложной информацией во время выборов. Они считают, что нынешние риски, которые AGI привносит в выборы, сконцентрированы в трех аспектах: глубокая интеграция законодательства, технологий и коммуникационных механизмов.


Семинар, слева направо: Даррел М. Уэст (старший научный сотрудник Центра технологических инноваций), Сохейл Фейзи (доцент кафедры компьютерных наук Университета Мэриленда), Шана М. Бруссар (комиссар Федеральной избирательной комиссии), Мэтт Перо ( Университет Северной Каролины в Чапел-Хилл) Директор Центра технологической политики кампуса) Скриншот видео

На законодательном уровне федеральное правительство США, очевидно, не готово принять законы против вмешательства AGI в выборы. Большая часть ответственности по-прежнему лежит на законодательстве штатов и основных частных медиа-платформах.

30 октября 2023 года президент Байден подписал Указ 14110 о «Безопасной, надежной и надежной разработке и использовании искусственного интеллекта». Этот Указ представляет собой наиболее комплексный подход к управлению искусственным интеллектом в Соединенных Штатах на сегодняшний день, охватывающий покрытие. Области варьируются от новых отраслевых стандартов безопасности ИИ до защиты конфиденциальности, гражданских прав, интересов работников, технологических инноваций, использования ИИ правительством и международного лидерства США.

В некоторой степени этот указ можно рассматривать как дорожную карту для будущего законодательства в области безопасности искусственного интеллекта в Соединенных Штатах, помогая избежать повторения траектории разногласий в предыдущем управлении и позволяя регуляторной работе вернуться от разрозненных предложений штатов к федеральная система под управлением. Однако этот «комплексный метод искусственного управления» все еще находится в зачаточном состоянии, а проблемы, вызванные внутренним AGI на выборах, уже начинают проявляться.

На техническом уровне, хотя некоторые люди предлагают использовать цифровые водяные знаки для идентификации глубоко поддельного контента, эксперты говорят, что это ненадежно. Эти водяные знаки можно легко стереть в процессе генерации AGI, и это основное техническое ограничение, которое трудно решить в краткосрочной перспективе. В настоящее время наиболее эффективным методом является надежда на то, что частный сектор сможет активно предоставить некоторые услуги по проверке. Хотя этого недостаточно для решения проблемы в условиях усовершенствованного законодательства, он, по крайней мере, может сыграть некоторую роль.

Что касается воздействия на механизм коммуникации, эксперты на встрече заявили, что ложная информация на самом деле влияет на колебание от 5% до 10% избирателей, и подавляющее большинство избирателей уже с самого начала определили свой лагерь. По этому поводу другие эксперты говорят, что нам не нужно слишком пессимистично относиться к появлению глубокой дезинформации:

Во-первых, ложные новости составляют лишь малую часть информации, получаемой обычными людьми. «Исследование 2020 года показало, что среднестатистический американец тратит около 7,5 часов времени на средства массовой информации каждый день, около 14% из которых связано с новостями, в основном с телевидением. По оценкам другого недавнего исследования, среднестатистический взрослый американец для пользователей Facebook даже за несколько месяцев до выборов в США в 2020 году менее 7% контента, который они видели, было связано с новостями».

Во-вторых, что касается существующей глубокой дезинформации, исследования показывают, что она в основном сконцентрирована среди небольшого числа американцев. Это может быть связано с информационным коконом, создаваемым алгоритмом, но эта глубокая ложная информация обычно не может достичь подавляющего большинства онлайн-публики, особенно после того, как AGI помогает глубоко разделить группу пользователей, база пользователей, соответствующая конкретной информации, становится меньше. .

В дополнение к ужесточению федерального законодательства и содействию технологическим компаниям в совместном контроле AGI, решениями, которые обсуждаются, также являются продвижение «отказов от ответственности», требование к избирательным группам повысить прозрачность предвыборной деятельности и усиление государственного образования.

Толчок к решению об отказе от ответственности исходит от двухпартийного сенатора Клора Малофски. Однако проблема в том, что если на контенте, подлинность которого неизвестна, указан отказ от ответственности, люди будут более склонны не доверять контенту, тем самым ослабляя достоверность всей информации с этой отметкой и эффективность связанного с ней пропагандистского эффекта, даже несмотря на то, что это означает отказ от ответственности. идентифицированный контент может быть подлинным.

Подход к требованию от команд кампании повысить прозрачность и активное раскрытие информации заключается в том, чтобы потребовать от кампаний активно раскрывать, когда и как используются системы искусственного интеллекта. Просто этому методу в настоящее время не хватает доверия и гарантий, поскольку, хотя этот план и возлагает ответственность на самих кандидатов, если сами кандидаты не хотят нести ответственность, не желают активно раскрывать или даже намеренно скрывать свои действия, то сбор доказательства будут Это довольно затратно, тем более, что все еще существуют определенные технические пороги.

Кроме того, если это всего лишь штраф или какие-то незначительные административные взыскания, то кандидаты могут быть готовы к наказанию. Ведь если польза от неправильного применения AGI превысит стоимость штрафа, то она, несомненно, будет. дать кандидатам «законность» означает заплатить цену за возможность использовать орудие массового убийства. люди боятся?

В то же время мы также должны понимать, что в инциденте с фальшивой фотографией Трампа с чернокожими людьми и в инциденте с телефонным звонком Байдена с искусственным интеллектом инициатором такого поведения не был сам кандидат (по крайней мере, на первый взгляд), поэтому здесь также присутствует ответственность. В конце концов, разделение ответственности на тысячи сторонников не создает особого сдерживающего фактора.

Государственное образование является немедленным решением, хотя и не решает проблему фундаментально. Мы должны знать, что не все представители общественности способны переваривать глубокую ложную информацию, особенно когда глубоко ложное содержание представляет собой смесь правды и лжи. Активно обучая избирателей на регулярной основе во время выборов, рассказывая им, как выявить глубоко ложный контент и как объективно обрабатывать информацию, это окажет большую помощь тем избирателям, которые попали в информационный кокон или недостаточно образованы.

В любом случае, наступила предвыборная эра глубокой интеграции AGI. Как определить подлинность информации, как защититься от оппонентов, как создать механизм регулирования и оценить эффективность государственной политики, стали общими проблемами, с которыми столкнулись обе партии на этих выборах.

Примечание:

[1]AP: Пародийная реклама, опубликованная Илоном Маском, клонирует голос Камалы Харрис, вызывая обеспокоенность по поводу ИИ в политике.

https://apnews.com/article/parody-ad-ai-harris-musk-x-misleading-3a5df582f911a808d34f68b766aa3b8e

[2] The Paper: Приближаются выборы в США и дилемма ложной информации в игре ИИ

https://www.thepaper.cn/newsDetail_forward_27359556

[3] Сунь Чэнхао: Вмешательство генеративного искусственного интеллекта в предвыборную пропаганду в США: пути, сценарии и риски, 2024-7, P4-5.

[4] Брукингский институт: Опасности, создаваемые ИИ и дезинформацией во время выборов, 2024-2023 гг.

https://www.brookings.edu/events/the-dangers-pose-by-ai-and-disinformation-during-elections/

[5] Brookings: Регулирование ИИ общего назначения: области конвергенции и дивергенции в ЕС и США, 2024-2025 гг.

https://www.brookings.edu/articles/regulation-general-pose-ai-areas-of-convergence-and-divergence-across-the-eu-and-the-us/

[6] Брукингский институт: Непонятая механика: как ИИ, TikTok и дивиденды лжецов могут повлиять на выборы 2024 года, 2024-1

https://www.brookings.edu/articles/misunderstood-mechanics-how-ai-tiktok-and-the-liars-dividend-might-affect-the-2024-elections/


Эта статья является эксклюзивной рукописью Observer.com. Содержание статьи является исключительно личным мнением автора и не отражает мнение платформы. Ее нельзя воспроизводить без разрешения, в противном случае будет наложена юридическая ответственность. Подписывайтесь на Observer.com в WeChat guanchacn и читайте интересные статьи каждый день.