новости

комната n в южной корее снова появляется! большое количество женщин, чьи лица были изменены искусственным интеллектом, обратились за помощью на weibo, в котором приняли участие 500 школ и более 220 000 человек.

2024-08-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

в произведении «призрак в доспехах» конца прошлого века мотоко, все тело которого было превращено в тело-протез, засомневался, существует ли он еще. тело, память и отношения с другими людьми, если эти вещи можно воспроизвести, не могут использоваться в качестве аргумента в пользу физической жизни.

когда певица ai стала популярной, стефани сан также высказала аналогичную точку зрения в своем ответе. «ты не особенный, ты уже предсказуем и, к сожалению, тебя можно настроить».

можно добавить, что ии может описать и сгенерировать любого, даже если вы никогда ничего не делали.

лу синь действительно сказал, что, когда он увидел короткие рукава, он сразу подумал о белых руках. человеческое воображение является обычным явлением. неудивительно, что всякий раз, когда происходит новое развитие технологии, определенное вертикальное направление будет развиваться все более и более зрело: порнография.

южная корея, которая когда-то потрясла мир комнатой n, теперь испытывает версию 2.0.

насилие со стороны простых людей против простых людей

в предыдущем инциденте в «комнате n» преступник создал несколько чатов в зашифрованной программе обмена мгновенными сообщениями telegram и разместил контент сексуального характера. этот инцидент в основном произошел в telegram.

основное различие между ними заключается в способах совершения преступления: одно — секретная фотография, а другое — дипфейк.

мы уже знакомы с deepfake, который использует искусственный интеллект для создания, казалось бы, реальных видео, аудио или изображений для имитации событий, которых на самом деле не произошло.

дипфейки широко используются в индустрии развлечений и политиками, но они также контролируются обычными людьми и используются для нанесения вреда другим обычным людям.

злоумышленники «комнаты № 2.0» распространили свои когти на членов своих семей, коллег и одноклассников. многие чаты telegram организованы по школам или регионам, поэтому у участников группы есть общие знакомые и схожие темы.

▲чаты по университетскому кампусу

помимо женщин вокруг них, объектом их охоты также являются женщины-знаменитости. некоторые чаты даже подразделяются по типам занятий: учителя, медсестры, солдаты и т. д.

газета hankyoreh daily сообщила, что чату telegram с 227 000 участников достаточно было только фотографий женщин, чтобы создать дипфейковый контент за 5–7 секунд.

что такое понятие 220 000? в 2023 году в южной корее будет всего 230 000 новорожденных, а общая численность населения составит лишь более 50 миллионов человек.

в этом чате есть робот, который объединяет женские фотографии в обнаженные и может корректировать грудь. после того, как пользователь войдет в чат, в окне чата появится сообщение: «теперь пришлите понравившиеся женские фотографии».

▲ скриншот чата, объясняющий, как использовать deepfake

количество участников возмутительно, что может быть связано с низким «порогом входа»: ссылки можно найти, выполнив поиск по определенным ключевым словам на x (ранее twitter).

в этом чате также установлена ​​модель монетизации. первые две фотографии бесплатны, затем за фотографию взимается плата в размере 1 бриллианта (0,49 доллара сша, примерно 3,47 юаня). платежи можно производить только виртуальной валютой в целях анонимности. если вы пригласите друзей, вы также можете получить бесплатные кредиты.

но есть и чаты, требующие «сертификата о допуске» — если вы хотите вступить в группу, вам необходимо сначала представить 10 фотографий знакомых вам людей и пройти собеседование.

в качестве «сырца» можно использовать аватары из чат-программы kakaotalk и фотографии из instagram.

еще более ужасающим является то, что значительная часть жертв и преступников — подростки.

добровольцы создали карту, которая обновляется в режиме реального времени и показывает, в каких школах происходили преступления. даже в школе для девочек найдутся жертвы, поскольку преступники не обязательно являются одноклассниками.

точное количество пострадавших школ еще не установлено. некоторые блогеры утверждали, что на этот раз было задействовано более 70% школ.

26 августа газета "korea joongang daily" отметила, что в нее входят не менее около 300 школ по всей стране, включая даже начальные школы. 28 августа в отчете wsj это число было увеличено примерно до 500 школ.

один пользователь сети посетовал в комментариях: «это практически вся южная корея…»

хотя четких результатов расследования этого инцидента нет, прошлые данные также могут проиллюстрировать серьезность ситуации.

по данным корейского института прав женщин, с января по август этого года за помощью обратилась в общей сложности 781 жертва deepfake, из них 288 — несовершеннолетние, что составляет 36,9%. реальная цифра, вероятно, намного выше этой.

кроме того, национальное полицейское управление южной кореи заявило, что с начала 2023 года около 70% из примерно 300 человек, обвиненных в изготовлении и распространении ложных обнаженных фотографий, были подростками.

многие корейские женщины обратились за помощью в weibo. они не знали китайского языка и могли только читать контент на своих телефонах, передавая свою беспомощность и страх. «комната n 2.0» однажды стала популярным поиском на weibo.

некоторые пользователи сети задаются вопросом, почему корейские женщины обратились за помощью в китайский интернет. на самом деле, не только китайские женщины говорят на других языках. помимо южной кореи, об этом инциденте также сообщили сми сингапура, турции и других стран.

они считают, что если на них будут обращать внимание и критиковать иностранцы, то средства массовой информации будут активнее сообщать, а соответствующие ведомства будут более серьезно расследовать ситуацию, вместо того, чтобы притворяться глухими и молчать.

некоторые улики и даже личность инициатора расследовали сами кореянки, как и в то время в «комнате n». к счастью, президент южной кореи и лидер оппозиционной партии выразили свою позицию, президент южной кореи инь сиюэ предложил:

дипфейки — это явное цифровое сексуальное преступление, и мы искореним их раз и навсегда.

дипфейки можно рассматривать как розыгрыш, но это явно преступные действия с использованием технологий под прикрытием анонимности, и жертвой может стать каждый.

серверы telegram находятся за границей, а ее генеральный директор задержан в париже, что затрудняет расследование. корейская комиссия по стандартам связи заявила, что направила письмо с просьбой к французскому правительству сотрудничать в расследовании telegram.

после привлечения внимания общественного мнения соответствующее поведение было ограничено. однако газета hankyoreh daily сообщила, что некоторые недобросовестные пользователи пройдут более строгую «проверку личности» и продолжат заниматься дипфейкингом в более приватных чатах.

▲скриншот чата: пользователи обсуждают возможность присоединения к более приватному чату.

ложный контент, реальный вред

в дипфейках нет ничего нового, но их вред редко осознается.

некоторые женщины в южной корее закрыли свои учетные записи в социальных сетях или удалили фотографии, размещенные в интернете, пытаясь загладить свою вину.

они были огорчены и сомневались. с одной стороны, они не знают, где были опубликованы их фотографии и как далеко они распространились. с другой стороны, они не понимают, почему жертв просят быть осторожными при загрузке фотографий вместо того, чтобы обучать преступников.

когда студентка написала в своей истории в instagram «удалить все загруженные вами фотографии», мальчики в той же школе могли сказать: «ты слишком уродлива, чтобы тебя можно было использовать в таких вещах».

▲высказывания преступника о том, что женщины слишком высокие

в интернете до сих пор звучат такие голоса: «я не знаю, почему такого рода преступления причиняют такой большой вред». «если несколько человек совершили их сами, вред должен быть очень небольшим».

но то, что испытывают жертвы, — это нечто большее, чем просто вид их поддельных лиц. преступники также будут оскорблять их, распространять их личную информацию, такую ​​как адреса, номера телефонов и студенческие билеты, распространять слухи об их личной жизни, приближаться к ним и преследовать их.

что еще более страшно, так это столкнуться с «порноместью»: преступники угрожают распространять дипфейковые материалы, чтобы шантажировать и причинять вред женщинам, причиняя более серьезный вторичный вред.

▲корейский ютубер сказал, что женщины поднимают шум, но он знает, как защитить себя, прикрываясь

the korea herald сообщила, что сон, 17-летняя ученица средней школы из провинции кёнгидо, делилась в интернете танцевальными фотографиями и короткими видеороликами. однажды она получила анонимное сообщение в инстаграме с тремя откровенными фотографиями: «твои друзья и родители понимают эту сторону твоей жизни?»

все эти фотографии — дипфейк, но они практически неотличимы от реальных изображений. кошмар еще не закончился, и сообщения, на которые она отвечает, только еще больше воодушевляют другую сторону и предъявляют еще больше требований.

▲скриншоты текстовых сообщений между сонгом и преступником, измененные и переведенные на английский язык по запросу сонга.

никто не может разделить боль. некоторые жертвы даже говорили: «мир, каким я его знал, рухнул».

это не эквивалентно цене, уплаченной преступником.

▲скриншоты чата, некоторые нецензурные замечания, например: «вы можете задать позу, в которой хотите фотографировать, это супер круто»

инцидент еще не урегулирован, но южная корея ранее вынесла приговор deepfake, первый суд над одним из которых состоялся 28 августа.

с июля 2020 года по апрель этого года пак украл фотографии лиц женщин-жертв, таких как выпускницы университета, подготовил 419 порнографических видеороликов deepfake и распространил 1735 из них. он был приговорен к 5 годам тюремного заключения.

жертвы начали бегать в июле 2021 года, прежде чем им удалось привлечь преступника к ответственности, а в мае этого года пак был привлечен к ответственности.

из-за этого масштабного инцидента с deepfake соответствующие власти южной кореи рассматривают возможность увеличения максимального тюремного заключения с 5 до 7 лет.

▲женщины южной кореи протестуют против сексуальных преступлений

учитывая, что дипфейковые преступления несовершеннолетних очень распространены, но в законодательстве есть лазейки, южная корея отмеряет максимальное наказание для виновных на этапе обязательного образования.

по сей день deepfake во многих местах по-прежнему остается «серой зоной», и усилия по защите не успевают за скоростью угроз.

например, в соединенных штатах, если жертвой является взрослый человек, в штатах действуют разные законы и правила, устанавливающие уголовную ответственность или возбуждающие гражданские иски, но в настоящее время не существует федерального закона, запрещающего производство порнографического контента deepfake.

▲скриншот чата, участники беседуют об общих знакомых

одна из причин сложности законодательства заключается в том, что некоторые люди считают, что даже если субъект на изображении deepfake выглядит как вы, на самом деле это не вы, поэтому ваша конфиденциальность на самом деле не нарушается.

однако всем известно, что хотя картина и ложна, вред реален.

закон продвигается медленно, и в то же время те преступники, которые так и не объявились, временно "прекратили свою деятельность" и ждут "возвращения".

сотворить зло так легко, дипфейки актуальны для всех

южная корея не является исключением. deepfake происходит независимо от национальных границ.

в сентябре 2023 года в испанском городе альмендралехо группа мальчиков загрузила фотографии своих одноклассниц, размещенные в социальных сетях, в инструмент искусственного интеллекта, позволяющий «раздевать» их в один клик. в городе пять средних школ, и как минимум в четырех из них были распространены «обнаженные фотографии» одноклассниц.

этот инструмент можно использовать через мобильные приложения или telegram. есть не менее 30 жертв, в основном студентки в возрасте от 12 до 14 лет.

большинство инициаторов знали их и также были несовершеннолетними. их было как минимум 10, некоторые даже моложе 14 лет, и им не могли быть предъявлены уголовные обвинения.

▲мать призывает больше жертв высказаться

они создали групповые чаты в whatsapp и telegram для распространения этих «обнаженных фотографий» и угрожали жертвам через instagram вымогать «выкуп» и настоящие обнаженные фотографии.

похожая ситуация произошла в средней школе в нью-джерси, сша. их одноклассники-мужчины во время летних каникул сделали "обнаженные фотографии".

директор заверил, что все фотографии удалены и больше не будут распространяться. инициатора отстранили от занятий на несколько дней и вернули на "место преступления", как ни в чем не бывало.

deepfake впервые появился в 2017 году на reddit, «американская версия tieba». основная форма — замена лиц знаменитостей на главных героев порнографических видеороликов или подделка политических деятелей.

с технической точки зрения существует два основных пути: один — путь кодер-декодер, который заменяет одно лицо другим путем сжатия и восстановления изображения; другой — путь генератор-дискриминатор (т. е. генеративные состязательные сети (gan), генерируют). реалистичные изображения посредством состязательной тренировки.

▲ган

сегодня дипфейк — это более широкое понятие, больше не ограничивающееся оригинальной заменой лица. мы используем его для обозначения любого акта фальсификации реальности с помощью технологических средств.

за кулисами скрыты сложные технические принципы. перед пользователями — «нестандартные» интерфейсы. подростки также могут по своему желанию создавать ложную информацию. deepfake переродился из технологии в инструмент практически без порога.

приложениям «раздевания в один клик» требуется только фотография, адрес электронной почты и несколько долларов, чтобы массово снимать «одежду» знаменитостей, одноклассников и незнакомцев. без согласия издателя, а затем распространяет его также без его ведома.

основываясь на модели распространения с открытым исходным кодом, обученной на массивных изображениях, пользователи могут создавать поддельные откровенные фотографии знаменитостей, вводя подсказки.

▲ии-модель голливудской актрисы была скачана тысячи раз.

проекты github с открытым исходным кодом, такие как deep-live-cam, могут менять лица в видеочатах с помощью всего лишь фотографии.

молодых людей, возможно, сложно обмануть, но это не обязательно касается пожилых людей. трагический пример уже произошел в действительности — 82-летний мужчина в сша потерял 690 000 долларов из-за своей слепой веры в ии. маск, который обманул людей на видео.

▲ прямая трансляция ai маска

в июле 2023 года deutsche telekom выпустила рекламу о безопасности данных детей, призывая родителей как можно меньше раскрывать конфиденциальную информацию детей в интернете.

изображения, видео и аудио — это дипфейк. хотя мы рационально понимаем, что «увидеть — значит поверить», наша психология еще не полностью приняла это, и у нас нет соответствующей способности различать всех. может стать жертвой.

технологии могут быть нейтральными, но информация, которую люди используют для производства технологий, — это не просто информация, но и оружие, используемое для унижения, стигматизации и обретения чувства превосходства. чем вульгарнее и причудливее контент, тем легче его распространять. это было верно с древних времен.

что могут сделать обычные люди? по крайней мере, мы можем решить, как нам использовать технологии, а также мы можем выбирать, какую информацию производить и распространять, уделять внимание жертвам, насмехаться над преступниками и использовать нашу небольшую власть для содействия прогрессу законов и социальных концепций.

почему после замены лица жертва удалила фотографии? почему жертвам так стыдно после того, как их тайно сфотографировали? кажется, это вопрос, на который технологии не могут ответить.