Новости

Делает ли ИИ распространение слухов более простым и «научным»?

2024-07-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Источник: Верховенство закона Daily.

Репортер Чжан Шукунь

«Есть картинки и правда, и все это подтверждено экспертами».

Недавно жительница Тяньцзиня Ли Мэн (псевдоним) сильно поссорилась со своей матерью из-за «научно-популярной статьи»: ее мать твердо верила, что статья содержит видео, фотографии и выводы исследований, сделанные различными так называемыми врачами и медицинскими группами. Это может быть фейк; Ли Мэн тщательно идентифицировал статью и обнаружил, что статья была создана искусственным интеллектом, а платформа также опровергла слухи, поэтому это должно быть фейк.

Содержание этой статьи связано с кошками - одна девочка играла с кошкой и заболела неизлечимой болезнью под названием «болезнь». Позже вся ее личность стала неузнаваемой. Именно из-за этой статьи мать Ли Мэн решительно выступила против того, чтобы она воспитывала кошку, поскольку боялась, что она тоже будет страдать от «болезней». Ли Мэн не мог ни смеяться, ни плакать по этому поводу: «Я очень надеюсь, что моя мама сможет меньше пользоваться Интернетом».

Мать Ли Мэн — не единственная, кого обманули слухи об искусственном интеллекте. В последнее время органы общественной безопасности во многих местах опубликовали ряд случаев, связанных с использованием инструментов искусственного интеллекта для распространения слухов. Например, агентство, опубликовавшее ложные новости о «взрыве в Сиань», могло сгенерировать от 4000 до 7000 сообщений. ложные новости за день на пике популярности, с ежедневным доходом 1 Более 10 000 юаней, а фактический контролер компании Ван Моумоу управляет 5 такими учреждениями с 842 операционными счетами.

Эксперты, опрошенные журналистами «Rule of Law Daily», отметили, что удобные инструменты искусственного интеллекта значительно снизили затраты на производство слухов и увеличили порядок и распространение слухов. Распространение слухов с помощью ИИ имеет такие характеристики, как низкий порог, серийное производство и сложность идентификации. Необходимо срочно усилить надзор и разорвать цепочку интересов, стоящих за ним.

Использование ИИ для фабрикации ложных новостей

Быстро распространилось, и многие люди были обмануты.

20 июня полиция Шанхая опубликовала уведомление о том, что два торговца брендами сфабриковали ложную информацию, такую ​​​​как «Нанести удар ножом на станции метро Zhongshan Park», чтобы завоевать популярность. Соответствующие сотрудники были задержаны полицией в административном порядке. В отчете обращает на себя внимание одна деталь: фальшивомонетчик использовал программное обеспечение искусственного интеллекта для создания видеотехнологий для изготовления ложных видеороликов атак в метро и другой ложной информации.

Репортер узнал, что в последние годы использование ИИ для распространения слухов происходит часто и распространяется очень быстро. Некоторые слухи вызвали значительную социальную панику и вред.

В прошлом году в случае с пропавшей девочкой в ​​Шанхае банда злонамеренно сфабриковала такие слухи, как «отец девочки — ее отчим» и «девочку увезли в Вэньчжоу», в манере «кликбейта» и «шок-группы». Банда использовала инструменты искусственного интеллекта и другие инструменты для создания слухового контента. Через матрицу из 114 аккаунтов они опубликовали 268 статей за 6 дней, многие из которых получили более 1 миллиона кликов.

Бюро кибербезопасности Министерства общественной безопасности недавно объявило об этом случае. С декабря 2023 года в Интернете часто распространяется информация о «горячей воде, бьющей из-под земли в районе Хуи города Сиань», а также такие слухи, как «горячая вода, бьющая из-под земли из-за землетрясения». и «из-за разрыва подземных тепловых труб». После расследования соответствующие слухи возникли в результате очистки рукописей ИИ.

Недавно «в многоэтажном жилом доме в Цзинане вспыхнул пожар, и многие люди бросились спасаться», а «человек, занимавшийся утренней пробежкой, обнаружил живого человека в могиле возле Горы Героев в Цзинане»… Эти возмутительные «блокбастеры» новости» получили широкое распространение в Интернете и привлекли большое внимание. Администрация киберпространства муниципального комитета партии Цзинань немедленно опровергла эти слухи через Цзинаньскую интернет-платформу по опровержению слухов, но многие люди все еще были сбиты с толку появлением «картинок и правды».

Отчет об исследовании, опубликованный Центром исследований новых медиа Школы журналистики и коммуникаций Университета Цинхуа в апреле этого года, показал, что среди слухов об ИИ за последние два года наибольшую долю составляли экономические и корпоративные слухи, достигшие 43,71%; В прошлом году экономические и корпоративные слухи Темп роста слухов об ИИ достигает 99,91%, среди которых больше всего от слухов об ИИ пострадали такие отрасли, как общественное питание на вынос и экспресс-доставка.

Так насколько легко использовать ИИ для создания фейковых новостей?

Репортер протестировал различные популярные на рынке программы искусственного интеллекта и обнаружил, что, если заданы ключевые слова, «новостной репортаж» может быть создан немедленно за несколько секунд, включая детали инцидента, комментарии и мнения, а также последующие действия и т. д. Добавьте время и место, изображения и фоновую музыку, и новостной репортаж, который выглядит реальным и фальшивым, готов.

Репортер обнаружил, что многие слухи, порожденные искусственным интеллектом, были смешаны с таким содержанием, как «согласно сообщениям», «соответствующие ведомства проводят углубленное расследование причин аварии и принимают меры по проведению экстренного ремонта» и «напоминание генеральному директору». общественности обращать внимание на безопасность в повседневной жизни». Людям часто трудно отличить подлинность после публикации в Интернете.

Помимо новостей ИИ, научно-популярных статей, изображений, дубляжа видео и имитации голосов после замены лица, все это можно создать с помощью ИИ. После ручной настройки и включения некоторого реального контента их станет трудно различить.

Цзэн Чи, исследователь из Центра журналистики и социального развития Китайского университета Жэньминь, сказал, что сращивающая природа «генеративного ИИ» имеет сильное сходство со слухами. Оба они «создают вещи из ничего» — создают информацию, которая выглядит. реальный и разумный. ИИ сделал распространение слухов более простым и «научным». ИИ обобщает закономерности и объединяет сюжеты, основанные на горячих событиях, и может быстро создавать слухи, которые соответствуют «ожиданиям» людей и распространяются быстрее.

«Онлайн-платформы могут использовать технологию искусственного интеллекта для обратного обнаружения сращивания изображений и видео, но подвергнуть цензуре контент сложно. В настоящее время люди не имеют возможности полностью перехватывать слухи, не говоря уже о том, что существует множество непроверенных или непроверяемая и неоднозначная информация», — сказал Цзэн Чи.

Подделка для получения трафика

Подозреваемый в совершении нескольких преступлений

«Эффективность распространения слухов» некоторых программ искусственного интеллекта поражает. Например, существует поддельное программное обеспечение, которое может генерировать 190 000 статей в день.

По словам полиции Сианя, которая конфисковала программное обеспечение, они извлекли статьи, сохраненные с помощью программного обеспечения в течение 7 дней, и обнаружили, что общее количество превышает 1 миллион, охватывая текущие новости, острые социальные темы, общественную жизнь и другие аспекты. Пользователи учетной записи организованно публикуют эти «новости» на соответствующих платформах, а затем используют систему вознаграждения за трафик платформы для получения прибыли. В настоящее время аккаунты, участвующие в деле, заблокированы платформой, а соответствующее программное обеспечение и серверы также отключены. Полиция все еще расследует дело.

За многими инцидентами, связанными с распространением слухов об искусственном интеллекте, мотивы распространителей слухов заключаются в основном в том, чтобы отвлечь трафик и получить прибыль.

«Используйте ИИ для массового производства популярного копирайтинга, и вы внезапно разбогатеете». «Позвольте ИИ помочь мне написать рекламные статьи, и я смогу закончить 3 статьи за 1 минуту». «Создание изображений и текста, ИИ автоматически пишет статьи и». одно число может легко производить 500+ в день. Работа с несколькими учетными записями, новички могут легко начать работу»... Поиск репортера показал, что подобные статьи о «разбогатении» циркулируют на многих социальных платформах, и многие блоггеры продвигают их. их в области комментариев.

В феврале этого года Шанхайское бюро общественной безопасности обнаружило, что на платформе электронной коммерции появилось короткое видео артиста, «злосчастного и умершего с сожалением», которое собрало большое количество лайков и репостов.

В ходе расследования выяснилось, что содержание видео было сфальсифицировано. После того, как видеоиздатель приступил к делу, он признался, что управлял интернет-магазином местных деликатесов на платформе электронной коммерции. Из-за плохих продаж он создал привлекательные фейковые новости, чтобы привлечь трафик в свой аккаунт в интернет-магазине. Он не умеет редактировать видео, поэтому использует технологию искусственного интеллекта для создания текста и видео.

Чжан Цян, партнер пекинской юридической фирмы Инхэ, сообщил журналистам, что использование искусственного интеллекта для фабрикации онлайн-слухов, особенно фабрикации и преднамеренного распространения ложных опасностей, эпидемий, катастроф и полицейской информации, может быть заподозрено в преступлении по фабрикации и преднамеренному распространению ложной информации. по уголовному закону. Если это затрагивает репутацию человека или компании, его можно заподозрить в преступной клевете и нанесении ущерба деловому авторитету и репутации. Если оно влияет на торговлю ценными бумагами и фьючерсами и нарушает торговый рынок, его можно заподозрить в фабрикации и распространении ложной информации о торговле ценными бумагами и фьючерсами в соответствии с уголовным законодательством.

Продолжать совершенствовать механизм опровержения слухов

Четко обозначайте синтетический контент.

Чтобы контролировать мошенничество и хаос с использованием ИИ, а также углубить управление онлайн-экосистемой, соответствующие департаменты и платформы в последние годы ввели ряд политик и мер.

Еще в 2022 году Администрация киберпространства Китая и другие издали «Правила управления глубоким синтезом информационных услуг Интернета», которые предусматривают, что ни одна организация или частное лицо не может использовать услуги глубокого синтеза для производства, копирования, публикации или распространения информации. Запрещено законами и административными правилами. Сервисы глубокого синтеза занимаются деятельностью, запрещенной законами и административными правилами, такой как создание угрозы национальной безопасности и интересов, нанесение ущерба имиджу страны, ущемление социальных и общественных интересов, нарушение экономического и социального порядка, посягательство на законные права. и интересы других и т. д. Поставщикам и пользователям услуг глубокого синтеза не разрешается использовать услуги глубокого синтеза для производства, копирования, публикации или распространения ложной новостной информации.

В апреле этого года секретариат Центральной комиссии по делам киберпространства издал «Уведомление о проведении специальной акции «Очистка и исправление неограниченного обильного трафика «Самомедиа»», требующее ужесточить маркировку и отображение источников информации. . Если информация генерируется с использованием таких технологий, как искусственный интеллект, она должна быть четко обозначена как созданная с помощью технологии. Любой контент, содержащий вымысел, выводы и т. д., должен быть четко обозначен как вымысел.

Для контента, который подозревается в использовании технологии искусственного интеллекта, некоторые платформы размещают ниже напоминание о том, что «контент предположительно создан искусственным интеллектом, пожалуйста, проверяйте внимательно», и явно добавляют ярлык «фантастический» к контенту, который содержит вымысел, выводы и т. д. ., и принять «действия» в отношении незаконных аккаунтов» и другие меры. Некоторые разработчики крупных моделей также заявили, что они будут ставить водяные знаки на контент, созданный с помощью больших моделей, с помощью фоновых настроек, чтобы информировать пользователей.

По мнению Чжан Цяна, люди до сих пор недостаточно понимают генеративный ИИ и не имеют опыта работы с ним. В этом случае очень необходимо напомнить людям через средства массовой информации, чтобы они обращали внимание на проверку информации об ИИ. В то же время необходимо активизировать усилия по реагированию на уровне правоохранительных органов, а также оперативно расследовать и исправлять такие случаи поведения, как слухи и мошенничество, с помощью ИИ.

Чжэн Нин, директор юридического факультета Школы управления культурной индустрией Китайского университета связи, считает, что существующий механизм опровержения слухов необходимо и дальше совершенствовать. Как только какая-то информация будет идентифицирована как слух, ее следует немедленно пометить и пометить. снова предложил пользователям, которые просмотрели этот слух, опровергнуть его. Советы по предотвращению дальнейшего распространения этого слуха и причинения большего вреда.

Стоит отметить, что некоторые люди могут не иметь никакой субъективной осведомленности о распространении слухов, а просто публиковать в Интернете контент, синтезированный с помощью ИИ. В результате он репостится в большом количестве, и многие люди верят ему, тем самым причиняя вред.

В связи с этим Цзэн считает, что самый простой способ предотвратить это — сформулировать правила через соответствующие ведомства или платформы, а весь контент, синтезированный с помощью ИИ, должен быть помечен надписью «это изображение/видео синтезировано с помощью ИИ».