berita

kamar n di korea selatan muncul kembali! sejumlah besar perempuan yang wajahnya diubah oleh ai meminta bantuan di weibo, yang melibatkan 500 sekolah.

2024-09-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

dalam karya "ghost in the shell" di penghujung abad lalu, motoko yang seluruh tubuhnya disulap menjadi tubuh palsu, meragukan apakah ia masih ada. tubuh, ingatan, dan hubungan dengan orang lain, jika hal-hal tersebut dapat ditiru, tidak dapat dijadikan argumen untuk kehidupan fisik.
ketika penyanyi ai menjadi populer, stefanie sun juga menyampaikan hal serupa dalam tanggapannya. anda tidak istimewa, anda sudah dapat diprediksi, dan sayangnya anda juga dapat disesuaikan.
kami dapat menambahkan bahwa siapa pun dapat dideskripsikan dan dihasilkan oleh ai, meskipun anda belum pernah melakukan sesuatu.
lu xun benar-benar mengatakan bahwa ketika dia melihat lengan pendek, dia langsung teringat pada lengan putih. imajinasi manusia adalah hal yang lumrah. tidak mengherankan jika ada perkembangan baru dalam teknologi, jalur vertikal tertentu akan berkembang semakin matang: pornografi.
korea selatan yang sempat menggemparkan dunia karena room n kini mengalami versi 2.0.
kekerasan yang dilakukan oleh orang biasa terhadap orang biasa
dalam insiden kamar n sebelumnya, pelaku membuat beberapa ruang obrolan di perangkat lunak pesan instan terenkripsi telegram dan memposting konten eksploitatif secara seksual. kejadian ini terutama terjadi di telegram.
perbedaan utama antara keduanya adalah cara kejahatannya: yang satu adalah fotografi rahasia, dan yang lainnya adalah deepfake.
kita sudah familiar dengan deepfake, yang menggunakan ai untuk menghasilkan video, audio, atau gambar yang tampak nyata untuk menyimulasikan hal-hal yang sebenarnya tidak terjadi.
deepfake umumnya digunakan dalam industri hiburan dan politisi, namun juga dikendalikan oleh masyarakat biasa dan digunakan untuk merugikan masyarakat awam lainnya.
pelaku ruang n 2.0 telah melebarkan cakarnya ke anggota keluarga, kolega, dan teman sekelasnya. banyak ruang obrolan telegram yang diatur menurut sekolah atau wilayah, sehingga anggota kelompok memiliki kenalan yang sama dan topik serupa.
ruang obrolan berdasarkan perguruan tinggi
selain para wanita di sekitarnya, selebriti wanita juga menjadi sasaran perburuan mereka. beberapa ruang obrolan bahkan dibagi lagi berdasarkan jenis pekerjaan, termasuk guru, perawat, tentara, dll.
harian hankyoreh melaporkan bahwa ruang obrolan telegram dengan 227.000 peserta hanya membutuhkan foto perempuan untuk menghasilkan konten deepfake dalam 5 hingga 7 detik.
apa konsep 220.000? korea selatan hanya akan memiliki 230.000 bayi baru lahir pada tahun 2023, dan total populasinya hanya di atas 50 juta jiwa.
ruang obrolan ini memiliki robot yang menggabungkan foto wanita menjadi foto telanjang dan dapat menyesuaikan payudara. setelah pengguna memasuki ruang obrolan, sebuah pesan akan muncul di jendela obrolan: "sekarang kirim foto wanita yang anda suka."
tangkapan layar ruang obrolan yang menggambarkan cara menggunakan deepfake
jumlah peserta sangat banyak, hal ini mungkin disebabkan oleh rendahnya "ambang batas masuk": tautan dapat ditemukan dengan mencari kata kunci spesifik di x (sebelumnya twitter).
ruang obrolan ini juga telah membentuk model monetisasi. dua foto pertama gratis, lalu dikenakan biaya 1 berlian (usd 0,49, sekitar rmb 3,47) per foto. pembayaran hanya dapat dilakukan dengan mata uang virtual untuk anonimitas. jika anda mengundang teman, anda juga bisa mendapatkan sejumlah kredit gratis.
namun ada juga beberapa chat room yang memerlukan "sertifikat penerimaan" - jika ingin bergabung dengan grup, anda harus mengirimkan 10 foto orang yang anda kenal terlebih dahulu dan lulus wawancara.
avatar dari software chat kakaotalk dan foto dari instagram dapat digunakan sebagai “bahan mentah”.
yang lebih mengerikan lagi, sebagian besar korban dan pelakunya adalah remaja.
para relawan membuat peta yang diperbarui secara real-time, menunjukkan di sekolah mana kejahatan tersebut terjadi. di sekolah khusus perempuan pun pasti ada korbannya, karena pelakunya belum tentu teman sekelas.
belum diketahui secara pasti berapa banyak sekolah yang terkena dampaknya. beberapa blogger menyatakan bahwa lebih dari 70% sekolah terlibat kali ini.
pada tanggal 26 agustus, "korea joongang daily" menunjukkan bahwa mereka mencakup setidaknya 300 sekolah di seluruh negeri, termasuk bahkan sekolah dasar. pada tanggal 28 agustus, laporan wsj menambah jumlah sekolah menjadi sekitar 500 sekolah.
seorang netizen mengeluh di kolom komentar: "ini pada dasarnya adalah keseluruhan korea selatan..."
meski belum ada hasil investigasi yang jelas atas kejadian ini, data masa lalu juga bisa menggambarkan keseriusan situasi.
menurut statistik dari korea women's human rights institute, dari januari hingga agustus tahun ini, total 781 korban deepfake meminta bantuan, 288 di antaranya adalah anak di bawah umur, atau setara dengan 36,9%. jumlah sebenarnya mungkin jauh lebih tinggi dari angka tersebut.
selain itu, badan kepolisian nasional korea selatan menyatakan bahwa sejak awal tahun 2023, sekitar 70% dari sekitar 300 orang yang dituduh memproduksi dan mendistribusikan foto telanjang palsu adalah remaja.
banyak wanita korea pergi ke weibo untuk meminta bantuan. mereka tidak bisa berbahasa mandarin dan hanya bisa membaca konten di ponsel mereka, menyampaikan ketidakberdayaan dan ketakutan mereka.
beberapa netizen bertanya-tanya mengapa wanita korea mencari bantuan di internet berbahasa mandarin. faktanya, tidak hanya wanita korea yang berbicara dalam bahasa lain selain korea selatan, media di singapura, turki, dan negara lain juga memberitakan kejadian ini.
mereka percaya bahwa jika mereka diperhatikan dan dikritik oleh orang asing, media akan memberitakan dengan lebih aktif dan departemen terkait akan menyelidiki dengan lebih serius, daripada berpura-pura tuli dan menutup mulut.
beberapa bukti kriminal bahkan identitas penggagasnya diselidiki oleh wanita korea sendiri, mirip dengan kamar n saat itu. untungnya, presiden korea selatan dan pemimpin partai oposisi telah menyatakan sikap mereka. presiden yin xiyue dari korea selatan mengusulkan:
deepfake jelas merupakan kejahatan seks digital dan kami akan memberantasnya untuk selamanya.
deepfake mungkin terlihat sebagai lelucon, namun jelas merupakan tindakan kriminal yang menggunakan teknologi dengan kedok anonimitas, dan siapa pun dapat menjadi korbannya.
server telegram berada di luar negeri dan ceo-nya ditahan di paris, sehingga menyulitkan penyelidikan. komisi standar komunikasi korea menyatakan telah mengirimkan surat yang meminta pemerintah prancis bekerja sama dalam menyelidiki telegram.
setelah menarik perhatian opini publik, perilaku terkait telah terkendali. namun, harian hankyoreh melaporkan bahwa beberapa pengguna yang tidak bermoral akan melewati "verifikasi identitas" yang lebih ketat dan terus melakukan deepfaking di ruang obrolan yang lebih pribadi.
tangkapan layar ruang obrolan tempat pengguna berdiskusi untuk bergabung ke ruang obrolan yang lebih pribadi
konten palsu, sangat merugikan
deepfake bukanlah hal baru, namun dampak buruknya jarang diketahui.
beberapa perempuan di korea selatan telah menjadikan akun media sosial mereka pribadi atau menghapus foto yang diunggah secara online sebagai upaya untuk menebus kesalahan.
mereka tertekan dan ragu. di satu sisi, mereka tidak tahu di mana fotonya dibagikan dan seberapa jauh penyebarannya. di sisi lain, mereka tidak paham mengapa para korban diminta berhati-hati dalam mengunggah foto, bukannya memberikan edukasi kepada pelaku.
ketika seorang siswa perempuan meminta instagram story-nya untuk “menghapus semua foto yang kamu unggah,” siswa laki-laki di sekolah yang sama akan berkata, “kamu terlalu jelek untuk digunakan dalam hal-hal seperti itu.”
ucapan pelaku yang mengatakan bahwa perempuan berdiri terlalu tinggi
masih ada suara-suara seperti ini di internet: "saya tidak tahu mengapa kejahatan semacam ini menimbulkan begitu banyak kerugian." "jika beberapa orang melakukannya sendiri, kerugiannya seharusnya sangat kecil."
namun apa yang dialami para korban lebih dari sekedar melihat wajah mereka secara deepfake. pelaku juga akan menghina mereka, menyebarkan informasi pribadi mereka seperti alamat, nomor telepon, dan ktp, menyebarkan rumor tentang kehidupan pribadi mereka, serta mendekati dan melecehkan mereka.
yang lebih mengerikan lagi adalah menghadapi “revenge porn” – para pelaku mengancam untuk menyebarkan materi palsu untuk memeras dan menyakiti perempuan, sehingga menyebabkan kerugian sekunder yang lebih serius.
seorang youtuber korea mengatakan wanita membuat keributan, tapi dia tahu cara menutupi diri untuk melindungi dirinya sendiri
korea herald melaporkan bahwa song, seorang siswa sekolah menengah berusia 17 tahun di provinsi gyeonggi, biasa berbagi beberapa foto menari dan video pendek secara online. suatu hari, dia menerima pesan anonim di instagram dengan tiga foto eksplisit: “apakah teman dan orang tuamu memahami sisi kehidupanmu yang ini?”
semua foto ini palsu, tetapi hampir tidak bisa dibedakan dari gambar aslinya. mimpi buruknya belum berakhir, dan pesan yang dia balas hanya akan membuat pihak lain semakin bersemangat dan menuntut lebih banyak.
tangkapan layar pesan teks antara song dan pelaku, dimodifikasi dan diterjemahkan ke dalam bahasa inggris atas permintaan song
tidak ada yang bisa berbagi rasa sakitnya. beberapa korban bahkan berkata: "dunia yang saya tahu telah runtuh."
ini tidak sebanding dengan harga yang harus dibayar pelaku.
tangkapan layar ruang obrolan, beberapa komentar tidak senonoh, seperti "kamu bisa mengatur pose yang ingin kamu jadikan foto, keren banget"
insiden tersebut belum terselesaikan, namun korea selatan sebelumnya telah menjatuhkan hukuman terhadap deepfake, yang salah satunya telah diadili pertama kali pada 28 agustus.
sejak juli 2020 hingga april tahun ini, park mencuri foto wajah perempuan korban seperti alumni universitas, memproduksi 419 video porno deepfake, dan menyebarkan 1.735 di antaranya. ia dijatuhi hukuman 5 tahun penjara.
para korban mulai berkeliaran pada bulan juli 2021 sebelum mereka berhasil membawa pelaku ke pengadilan, dan park diadili pada bulan mei tahun ini.
karena insiden deepfake berskala besar ini, otoritas terkait korea selatan sedang mempertimbangkan untuk meningkatkan hukuman penjara maksimal dari 5 tahun menjadi 7 tahun.
wanita korea selatan bersuara menentang kejahatan seksual
mengingat kejahatan remaja deepfake sangat umum terjadi, namun ada celah dalam hukum, korea selatan mengukur hukuman maksimal bagi pelakunya pada tahap wajib belajar.
hingga saat ini, deepfake masih menjadi area abu-abu di banyak tempat, dan upaya perlindungan tidak dapat mengimbangi kecepatan ancaman.
misalnya, di amerika serikat, jika korbannya adalah orang dewasa, negara bagian mempunyai undang-undang dan peraturan yang berbeda, baik yang mengkriminalisasi atau mengajukan tuntutan hukum perdata, namun saat ini tidak ada undang-undang federal yang melarang produksi konten pornografi deepfake.
tangkapan layar ruang obrolan, anggota mengobrol tentang kenalan bersama
salah satu alasan mengapa undang-undang sulit dilakukan adalah karena sebagian orang percaya bahwa meskipun subjek dalam gambar deepfake terlihat seperti anda, sebenarnya itu bukan anda, jadi privasi anda tidak terlalu dilanggar.
namun, semua orang tahu bahwa meskipun gambaran tersebut palsu, kerugiannya nyata.
undang-undang ini berjalan lambat, dan pada saat yang sama, para pelaku yang tidak pernah muncul untuk sementara waktu "menghentikan aktivitasnya" dan menunggu "kembalinya".
sangat mudah untuk melakukan kejahatan, deepfake relevan untuk semua orang
korea selatan tidak terkecuali. deepfake terjadi tanpa memandang batas negara.
pada bulan september 2023, di kota almendralejo, spanyol, sekelompok anak laki-laki mengunggah foto teman sekelas perempuan mereka yang diposting di media sosial ke alat ai "pengupasan sekali klik". ada lima sekolah menengah di kota tersebut, dan "foto telanjang" teman sekelas perempuan telah beredar di setidaknya empat sekolah tersebut.
alat ini bisa digunakan melalui aplikasi seluler atau telegram. setidaknya ada 30 korban yang sebagian besar adalah pelajar perempuan berusia 12 hingga 14 tahun.
sebagian besar penggagasnya mengenal mereka dan juga masih di bawah umur. setidaknya ada 10 orang, bahkan ada yang berusia di bawah 14 tahun dan tidak bisa menghadapi tuntutan pidana.
seorang ibu meminta lebih banyak korban untuk melapor
mereka membuat obrolan grup di whatsapp dan telegram untuk menyebarkan “foto telanjang” tersebut, dan mengancam korban melalui instagram untuk memeras “tebusan” dan foto telanjang asli.
situasi serupa terjadi di sebuah sekolah menengah di new jersey, as. ada sekitar 30 korban. teman sekelas laki-laki mereka membuat "foto telanjang" saat liburan musim panas.
kepala sekolah meyakinkan bahwa semua gambar telah dihapus dan tidak akan disebarluaskan lagi. pemrakarsa diskors dari sekolah selama beberapa hari dan dikembalikan ke "lokasi kejahatan" seolah-olah tidak ada yang salah.
deepfake pertama kali muncul pada tahun 2017 di reddit, "tieba versi amerika". bentuk utamanya adalah mengganti wajah selebriti dengan protagonis video porno, atau untuk menipu tokoh politik.
dari sudut pandang teknis, ada dua jalur utama: satu adalah jalur encoder-decoder, yang menggantikan satu wajah dengan wajah lainnya dengan mengompresi dan merekonstruksi gambar; yang lainnya adalah jalur generator-diskriminator (yaitu generative adversarial networks (gans), menghasilkan gambaran realistis melalui pelatihan permusuhan.
gan
saat ini, deepfake adalah konsep yang lebih luas, tidak lagi terbatas pada penggantian wajah asli, kami menggunakannya untuk merujuk pada tindakan memalsukan realitas melalui sarana teknologi.
prinsip-prinsip teknis yang rumit tersembunyi di balik layar. di hadapan pengguna terdapat antarmuka yang "out-of-the-box". remaja juga dapat membuat informasi palsu sesuka hati. deepfake telah berubah dari sebuah teknologi menjadi alat yang hampir tanpa batas.
aplikasi "sekali klik membuka baju" hanya memerlukan foto, alamat email, dan beberapa dolar untuk melepas "pakaian" selebriti, teman sekelas, dan orang asing secara berkelompok. tanpa persetujuan penerbit, dan kemudian menyebarkannya tanpa sepengetahuan mereka juga.
berdasarkan model difusi sumber terbuka yang dilatih pada gambar berukuran besar, pengguna dapat menghasilkan foto eksplisit palsu dari selebriti dengan memasukkan kata-kata cepat.
model ai seorang aktris hollywood telah diunduh ribuan kali
proyek github sumber terbuka seperti deep-live-cam dapat mengubah wajah dalam obrolan video hanya dengan foto.
mungkin sulit untuk menipu generasi muda, namun hal ini belum tentu berlaku bagi orang yang lebih tua. sebuah contoh tragis telah terjadi dalam kenyataan - seorang pria berusia 82 tahun di amerika serikat kehilangan $690.000 karena kepercayaan butanya terhadap ai​ ​musk yang menipu orang dalam video tersebut.
siaran langsung ai musk
pada bulan juli 2023, deutsche telekom mengeluarkan iklan tentang keamanan data anak-anak, menyerukan orang tua untuk sesedikit mungkin membagikan privasi anak-anak di internet.
gambar, video, dan audio semuanya deepfake. meskipun kita memahami secara rasional bahwa "melihat adalah percaya" telah menjadi masa lalu, psikologi kita belum sepenuhnya menerimanya, dan kita tidak memiliki kemampuan yang sesuai untuk membedakannya mungkin menjadi korban.
teknologi mungkin bersifat netral, namun informasi yang dihasilkan oleh orang-orang dengan menggunakan teknologi bukan sekadar informasi, namun juga senjata yang digunakan untuk mempermalukan, menstigmatisasi, dan mendapatkan rasa superioritas. semakin vulgar dan aneh kontennya, semakin mudah untuk disebarkan. hal ini sudah terjadi sejak zaman kuno.
apa yang bisa dilakukan orang biasa? setidaknya kita dapat memutuskan bagaimana kita menggunakan teknologi, dan kita juga dapat memilih informasi apa yang akan dihasilkan dan disebarluaskan, memperhatikan para korban, mengejek para pelakunya, dan menggunakan sedikit kekuatan kita untuk mendorong kemajuan hukum dan konsep sosial.
setelah ditukar muka, kenapa korban menghapus fotonya? mengapa korban merasa malu setelah difoto secara diam-diam? tampaknya ini adalah pertanyaan yang bahkan teknologi pun tidak bisa menjawabnya.