ニュース

韓国の部屋nが再登場! aiによって顔を変えられた多くの女性たちがweiboで助けを求め、50​​0の学校、22万人以上が参加した。

2024-08-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

前世紀末の『攻殻機動隊』という作品で、全身を義体化された素子は自分がまだ存在しているのか疑問を抱いていた。身体、記憶、他者との関係は、複製できるとしても、肉体的生命の議論として使用することはできません。

ai 歌手が人気になったとき、ステファニー・サンも同様のことを答えて、あなたは特別ではありません、あなたはすでに予測可能ですが、残念なことに、あなたはカスタマイズ可能でもあります。

たとえ何かをしたことがなくても、誰でも ai によって記述され、生成される可能性があると付け加えることもできます。

魯迅は、半袖を見るとすぐに白い腕を思い浮かべたと本当に言いました。人間の想像力は一般的です。テクノロジーが新たに発展するたびに、ポルノという特定の垂直方向の軌道がますます成熟するようになるのは驚くべきことではありません。

かつて「room n」で世界に衝撃を与えた韓国は現在、バージョン2.0を経験している。

一般人による一般人に対する暴力

ルーム n での前回の事件では、犯人は暗号化されたインスタント メッセージング ソフトウェア telegram 上に複数のチャット ルームを開設し、性的搾取的なコンテンツを投稿しました。この事件は主にテレグラム上で発生した。

両者の主な違いは犯罪手段で、一方は盗撮、もう一方はディープフェイクです。

私たちはすでに、ai を使用して本物のように見えるビデオ、音声、または画像を生成し、実際には起こらなかったことをシミュレートするディープフェイクについてよく知っています。

ディープフェイクはエンターテインメント業界や政治家でよく使われていますが、一般人によっても管理され、他の一般人に危害を加えるために使用されています。

room n 2.0 の加害者は、家族、同僚、クラスメートにまでその爪痕を広げています。telegram のチャット ルームの多くは学校や地域ごとに組織されているため、グループ メンバーには共通の知人や同様の話題が存在します。

▲大学キャンパス別のチャットルーム

周囲の女性だけでなく、女性芸能人も狩りの対象となる。一部のチャット ルームは、教師、看護師、兵士などの職業タイプに細分化されています。

ハンギョレ日報は、22万7000人の参加者がいるテレグラムのチャットルームでは女性の写真だけが必要で、ディープフェイクコンテンツを5~7秒で生成できたと報じた。

22万という概念は何ですか?韓国の2023年の新生児数はわずか23万人、総人口は5000万人強にすぎない。

このチャット ルームには、女性の写真をヌード写真に合成し、胸を調整できるロボットが搭載されています。ユーザーがチャット ルームに入ると、チャット ウィンドウに「気に入った女性の写真を送信してください」というメッセージが表示されます。

▲ディープフェイクの使い方を説明するチャットルームのスクリーンショット

参加者の数は法外ですが、これは「参加の敷居」が低いことに関係している可能性があります。x (旧 twitter) で特定のキーワードを検索するとリンクを見つけることができます。

このチャット ルームでは収益化モデルも確立されています。最初の 2 枚の写真は無料ですが、その後は写真 1 枚につき 1 ダイヤモンド (usd 0.49、約 rmb 3.47) の料金がかかります。匿名性を保つため、仮想通貨でのみ支払いが可能です。友達を招待すると、無料のクレジットを獲得することもできます。

ただし、「入会証明書」が必要なチャット ルームもあります。グループに参加したい場合は、まず知り合いの写真を 10 枚提出し、面接に合格する必要があります。

チャットソフト「カカオトーク」のアバターやインスタグラムの写真などを「素材」として利用できる。

さらに恐ろしいのは、被害者も加害者も大部分が十代の若者だということだ。

ボランティアは、犯罪が発生した学校を示すリアルタイムで更新される地図を作成しました。女子校であっても、加害者が同級生とは限らないため、被害者は出ます。

正確に何校が影響を受けたかはまだ判明していない。一部のブロガーは、今回は70%以上の学校が関与したと主張した。

8月26日、『韓国中央日報』は、小学校も含む全国の少なくとも約300校が含まれていると指摘した。 8月28日のwsjの報道では、その数は約500校にまで拡大された。

あるネチズンはコメント欄で「これは基本的に韓国全体だ…」と嘆いた。

この事件の明確な調査結果はありませんが、過去のデータからも状況の深刻さがわかります。

韓国女性人権研究院の統計によると、今年1月から8月までに助けを求めたディープフェイク被害者は計781人で、このうち未成年者は288人で36.9%を占めた。実際の数はおそらくこれよりはるかに大きいでしょう。

さらに、韓国警察庁は、2023年初め以降、虚偽のヌード写真を作成・頒布した疑いで起訴された約300人のうち約70%が10代の若者だったと発表した。

多くの韓国人女性が助け​​を求めて weibo を訪れ、中国語が分からず、内容をスクロールすることしかできず、無力感と恐怖を伝え、かつては weibo で「room n 2.0」が人気の検索になりました。

一部のネチズンは、なぜ韓国人女性が中国のインターネットで助けを求めるのか疑問に思っているが、実際、韓国人女性だけでなく、シンガポールやトルコなどのメディアもこの事件を報じた。

外国人から注目され批判されれば、耳が聞こえないふりをして黙っているよりも、メディアはより積極的に報道し、関係部門もより真剣に捜査するだろうと彼らは信じている。

当時のルームnと同様に、いくつかの犯罪証拠と開始者の身元さえも韓国人女性自身によって調査されました。幸いなことに、韓国大統領と野党指導者は、韓国の殷喜悦国家主席が次のような立場を表明した。

ディープフェイクは明らかなデジタル性犯罪であり、私たちはそれらをきっぱりと根絶します。

ディープフェイクはいたずらと思われるかもしれないが、匿名性を隠れ蓑にしたテクノロジーを利用した犯罪行為であることは明らかであり、誰もが被害者になる可能性がある。

テレグラムのサーバーは海外にあり、ceoはパリで拘束されており、捜査は困難になっている。韓国通信標準委員会は、フランス政府に対しテレグラムの調査への協力を要請する書簡を送ったと発表した。

世論の注目を集めて以降、関連行為は抑制されているが、一部の悪質なユーザーはより厳格な「本人確認」を通過し、よりプライベートなチャットルームでディープフェイクを続けるだろうとハンギョレ日報が報じた。

▲チャット ルームのスクリーンショット。ユーザーはよりプライベートなチャット ルームへの参加について話し合っています。

虚偽の内容、実害

ディープフェイクは新しいものではありませんが、その害はほとんど認識されていません。

韓国の女性の中には、埋め合わせをするためにソーシャルメディアアカウントを非公開にしたり、オンラインに投稿された写真を削除したりする人もいる。

彼らは悩み、疑問を抱いていました。一方で、自分の写真がどこで共有され、どこまで拡散したかはわかりません。その一方で、なぜ加害者を教育するのではなく、被害者が写真のアップロードに注意するよう求められるのか、彼らは理解していません。

女子生徒がインスタグラムのストーリーで「あなたがアップロードした写真をすべて削除してください」と呼びかけると、同じ学校の男子生徒たちは「あなたはそんなことに利用されるには醜すぎる」と言うでしょう。

▲「女性は背が高すぎる」という加害者の発言

ネット上では「なぜこのような犯罪がこれほどの被害をもたらすのか分からない」「数人が自分で犯したものなら被害は小さいはずだ」といった声が依然としてある。

しかし、被害者が経験するのは、ディープフェイクされた自分の顔をただ見るだけではありません。また、加害者は、彼らを侮辱したり、住所、電話番号、学生証などの個人情報を流布したり、私生活に関する噂を流したり、近づいて嫌がらせをしたりすることもあります。

さらに恐ろしいのは、「リベンジポルノ」に遭遇することです。加害者はディープフェイク素材を広めて女性を脅迫し危害を加え、より深刻な二次被害を引き起こすと脅します。

▲韓国人ユーチューバーは「女性は騒ぐが、自分を隠すことで自分を守る方法を知っている」と語った。

コリア・ヘラルド紙は、京畿道に住む17歳の高校生ソン君がダンスの写真や短いビデオをオンラインで共有していたと報じた。ある日、彼女はインスタグラムで「あなたの友人や両親はあなたの人生のこの側面を理解していますか?」という3枚の露骨な写真付きの匿名メッセージを受け取りました。

これらの写真はすべてディープフェイクですが、本物の画像とほとんど区別がつきません。悪夢はまだ終わっておらず、彼女が返信するメッセージは相手をさらに興奮させ、より多くの要求をするだけです。

▲ソン氏と犯人とのテキストメッセージのスクリーンショット(ソン氏の要望に応じて修正・翻訳)

誰も痛みを共有することはできません。被害者の中には「私が知っていた世界は崩壊した」とさえ言った。

これは加害者が支払った代償に相当しません。

▲チャットルームのスクリーンショット、「撮りたいポーズを設定できる、超かっこいい」など卑猥な発言も

この事件はまだ解決されていないが、韓国は以前ディープフェイクに対して判決を下しており、そのうちの1件については8月28日に初公判が行われた。

朴被告は2020年7月から今年4月まで、大学の同窓生など被害女性の顔写真を盗み、ディープフェイクポルノ動画419本を制作し、そのうち1735本を拡散したとして、懲役5年の判決を受けた。

被害者らは加害者を裁判に持ち込むことに成功する前の2021年7月から逃げ始め、朴被告は今年5月に起訴された。

この大規模なディープフェイク事件を受けて、韓国の関係当局は最高懲役を5年から7年に引き上げることを検討している。

▲韓国女性たちが性犯罪反対の声を上げる

ディープフェイクによる少年犯罪は非常に多いが、法律には抜け穴があることを考慮し、韓国は義務教育段階で加害者に対する最高刑を定めている。

今日に至るまで、ディープフェイクは依然として多くの場所でグレーゾーンであり、保護の取り組みが脅威のスピードに追いついていません。

たとえば、米国では、被害者が成人の場合、州ごとに異なる法規定があり、犯罪とするか民事訴訟を起こすかのいずれかとなっているが、現時点ではディープフェイクポルノの制作を禁止する連邦法はない。

▲メンバーが共通の知人について会話するチャットルームのスクリーンショット

法整備が難しい理由の 1 つは、ディープフェイク画像の被写体があなたに似ているとしても、実際にはあなたではないため、実際にはプライバシーが侵害されるわけではないと考える人がいることです。

しかし、その絵は虚偽であっても、害は現実であることは誰もが知っています。

法整備はゆっくりと進んでいるが、同時に姿を現さない加害者たちは一時的に「活動を停止」し、「復活」を待っている。

悪事を行うのはとても簡単です、ディープフェイクは誰にでも関係があります

韓国も例外ではなく、国境に関係なくディープフェイクが発生しています。

2023年9月、スペインのアルメンドラレホの町で、男子グループが女子クラスメートの写真をソーシャルメディア上の「ワンクリック・ストリップ」aiツールにアップロードした。町内には中学校が5校あり、そのうち少なくとも4校で同級生女子の「ヌード写真」が出回った。

このツールは、モバイルアプリまたはテレグラムを通じて使用できます。被害者は少なくとも30人で、主に12歳から14歳の女子学生です。

開始者のほとんどは彼らと面識があり、未成年者もいたが、そのうちの何人かは14歳未満であり、刑事告訴される可能性はなかった。

▲より多くの被害者に名乗り出るよう呼びかける母親

彼らはこれらの「ヌード写真」を広めるためにwhatsappとtelegramにグループチャットを作成し、instagramを通じて被害者を脅して「身代金」と本物のヌード写真を強要した。

アメリカのニュージャージー州の高校でも同様の事件が起き、男子クラスメートが夏休み中に「ヌード写真」を撮影した。

校長は、写真はすべて削除されており、二度と広めることはないと保証した。犯人は数日間の停学処分を受け、何事もなかったかのように「犯罪現場」に戻った。

ディープフェイクは2017年にredditで初めて登場し、「アメリカ版tieba」と呼ばれ、有名人の顔をポルノビデオの主人公に置き換えたり、政治家になりすましたりするのが主な形式だ。

技術的な観点から見ると、主なパスは 2 つあります。1 つは、画像を圧縮して再構築することで 1 つの顔を別の顔に置き換えるエンコーダ - デコーダ パスです。もう 1 つはジェネレータ - ディスクリミネータ パス (つまり、敵対的生成ネットワーク (gan)) です。敵対的トレーニングによるリアルな画像。

▲ガン

現在、ディープフェイクはより広い概念であり、元の顔の置き換えに限定されなくなり、技術的手段を通じて現実を改ざんするあらゆる行為を指すために使用されます。

複雑な技術原理が舞台裏に隠されており、ティーンエイジャーが意のままに偽の情報を作成できるインターフェースも存在します。

「ワンクリック脱衣」アプリは、写真、電子メールアドレス、数ドルを必要とするだけで、有名人、クラスメート、見知らぬ人の「服」を一括で脱がせます。「脱衣」に使用される写真は、多くの場合、ソーシャルメディアのキャプチャからのものです。発行者の同意を得ずに、その後、発行者の知らないうちにそれを広めます。

大量の画像でトレーニングされたオープンソースの拡散モデルに基づいて、ユーザーはプロンプトの言葉を入力することで有名人の露骨な偽の写真を生成できます。

▲ハリウッド女優のaiモデルは数千回ダウンロードされている

deep-live-cam のようなオープンソースの github プロジェクトでは、写真だけでビデオ チャットの顔を変えることができます。

若者を騙すのは難しいかもしれませんが、高齢者には必ずしも当てはまらないという悲劇的な例がすでに現実に起きています - 米国の82歳の男性がaiへの盲目的な信仰のせいで69万ドルを失いました。ビデオで人々を騙したマスク。

▲aiマスクの生放送

2023年7月、ドイツテレコムは子供のデータセキュリティに関する広告を発行し、インターネット上で子供のプライバシーをできるだけ共有しないように保護者に呼びかけた。

画像、ビデオ、音声はすべてディープフェイクになっています。私たちは「見ることは信じること」が過去のものになったことを合理的に理解していますが、私たちの心理はまだそれを完全には受け入れておらず、すべての人を区別する対応する能力を持っていません。被害者になるかもしれない。

テクノロジーは中立かもしれませんが、人々がテクノロジーを使って生み出す情報は単なる情報ではなく、屈辱を与え、汚名を着せ、優越感を得るために使用される武器でもあります。内容が下品で奇妙であればあるほど、広まりやすいのは昔からのことだ。

普通の人は何ができるでしょうか?少なくとも、私たちはテクノロジーをどのように使用するかを決定することができ、どのような情報を作成して広めるかを選択することもでき、被害者に注意を払い、加害者を嘲笑し、法と社会概念の進歩を促進するために私たちのわずかな力を使うことができます。

顔を交換された後、なぜ被害者は写真を削除したのでしょうか?なぜ被害者は盗撮されるとこれほど恥ずかしい思いをするのでしょうか?これはテクノロジーでは答えられない質問のようです。