новости

оставьте комментарий|добавьте отличительные логотипы, чтобы контент, созданный искусственным интеллектом, не перепутали с реальным.

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

сколько огромных изображений, текста и видео, которые мы видим в интернете каждый день, созданы и синтезированы искусственным интеллектом? как точно отличить статьи ии, изображения ии и видео ии?
14 сентября управление киберпространства китая опубликовало «меры по маркировке синтетического контента, созданного искусственным интеллектом (проект для комментариев)». «проект для комментариев» намерен предусмотреть, что создаваемые услуги синтеза, предоставляемые поставщиками услуг, включают текст, аудио, изображения и видео, виртуальные сцены и т. д., в соответствующих местах следует добавлять заметные подсказки; когда поставщики услуг предоставляют методы загрузки, копирования и экспорта синтетического контента, они должны гарантировать, что файлы содержат явные знаки, соответствующие требованиям. требования.
это положение очень реалистично и необходимо. в последние годы технология глубокого синтеза искусственного интеллекта широко используется во многих областях, от создания изображений, текста и видео до онлайн-вопросов и ответов, и различные приложения появляются бесконечно. нет сомнений в том, что инструменты ии могут сделать производство контента и распространение знаний более эффективными, и по мере того, как способность ии к обучению становится все сильнее и сильнее, его возможности «производства» контента в будущем даже превзойдут людей.
но с другой стороны, эффект глубокого синтетического контента более реалистичен, а производство более эффективно, что также затрудняет различие синтетического контента между реальным и поддельным. когда трудно отличить правду от лжи, а увидеть уже не значит поверить, технология искусственного интеллекта подобна обоюдоострому мечу, который также принесет обществу такие проблемы, как искажение информации и когнитивное замешательство.
в ноябре 2022 года управление киберпространства китая опубликовало «правила управления глубоким синтезом информационных услуг интернета», в которых оговариваются цель, маркировка, сфера использования и наказания за злоупотребление глубоко синтезированным контентом. в этом «проекте для комментариев» дополнительно разъясняется, что будь то текст, аудио, изображения или видео, «в соответствующих местах должны быть добавлены заметные напоминалки». это четкое требование для поставщиков услуг: если оно создано с помощью инструмента искусственного интеллекта, будь то статья или изображение, необходимо добавить заметную идентификацию.
на самом деле это напоминание аудитории о том, что информация в интернете неоднозначна. когда вы видите «инсайдерские» статьи, «горячие» фотографии или «шокирующие» видеоролики, вы должны в первую очередь обратить внимание на то, генерируются ли они искусственным интеллектом и стоит ли их принимать. как их идентифицировать? будьте осторожнее.
стоит отметить, что по мере того, как технологии постепенно становятся «гражданскими», преступники могут легко использовать ии для распространения слухов и создания фейковых новостей. не так давно некоторые средства массовой информации создали организацию mcn, которая может использовать ии для создания 4000-7000 слуховых статей каждый день. благодаря технологии ии эти статьи выглядят очень «реальными и разумными» для аудитории, не знакомой с интернет-технологиями. .увидев такую ​​информацию с «картинками и правдой», легко поверить, что это правда.
согласно опросу сми, при использовании отечественного ии стоимость статьи об ии составляет всего 0,00138 юаней, а 7 статей можно создать за 1 цент. такое «отсутствие капитала и огромные прибыли» легко могут быть использованы преступниками. ложные фотографии и видео, такие как «атака в метро», «взрыв в сиане», «взрыв в частном доме в уси, чунцин» и т. д., есть все. имело плохие социальные последствия. правда в том, что за этим стоят слухи о массовом производстве ии.
регистрация искусственного интеллекта для создания синтетического контента технически не сложна. некоторые эксперты предполагают, что платформа может быть полностью подключена к большой модельной системе платформы генерации контента ai, проводить идентификацию и сравнение данных в реальном времени, а затем прикреплять неустранимый цифровой водяной знак или текстовые описания, такие как «это изображение/ видео синтезируется искусственным интеллектом».
в этом «проекте для комментариев» подчеркивается, что «ни одна организация или частное лицо не имеет права злонамеренно удалять, подделывать, подделывать или скрывать сгенерированные искусственные идентификаторы контента, предусмотренные настоящими мерами. это должно напомнить поставщикам услуг и платформам ии о том, что они не должны использовать ии». инструменты для получения «дивидендов от трафика» мы занимаем позицию умиротворения, закрываем глаза и закрываем один глаз. чистое киберпространство не должно позволять ии-контенту путаться и размывать границы реальности; если какая-либо информация будет определена как слухи, платформа должна немедленно пометить ее и очистить.
способность искусственного интеллекта генерировать и синтезировать превосходит традиционное познание, а также заставляет нас осознать: многие онлайн-статьи выглядят очень «научными», а многие онлайн-видео выглядят особенно «реальными», но они не обязательно могут быть надежными, так что не не спешу в это поверить. вы могли бы сначала поискать его. есть ли на видном месте контента надпись «это изображение/видео синтезировано искусственным интеллектом»?
ли циньюй, главный комментатор the paper
(эта статья взята из the paper. для получения более оригинальной информации загрузите приложение «the paper»).
отчет/отзыв