nachricht

raum n in südkorea taucht wieder auf! eine große anzahl von frauen, deren gesichter durch ki verändert wurden, baten auf weibo um hilfe, darunter 500 schulen.

2024-09-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

in dem werk „ghost in the shell“ bezweifelte motoko, dessen ganzer körper in eine körperprothese verwandelt wurde, ende des letzten jahrhunderts, ob er noch existierte. der körper, das gedächtnis und die beziehungen zu anderen menschen können, wenn diese dinge reproduziert werden können, nicht als argument für das physische leben herangezogen werden.
als die ki-sängerin populär wurde, brachte auch stefanie sun in ihrer antwort einen ähnlichen punkt zum ausdruck: du bist nichts besonderes, du bist bereits vorhersehbar und leider auch anpassbar.
wir können hinzufügen, dass jeder durch ki beschrieben und generiert werden kann, auch wenn man noch nie etwas getan hat.
lu xun sagte wirklich, als er kurze ärmel sah, dachte er sofort an weiße arme. die menschliche vorstellungskraft ist weit verbreitet. es ist keine überraschung, dass bei jeder neuen entwicklung in der technologie eine bestimmte vertikale richtung immer ausgereifter wird: pornografie.
südkorea, das einst wegen room n die welt schockierte, erlebt nun version 2.0.
gewalt von gewöhnlichen menschen gegen gewöhnliche menschen
beim vorherigen vorfall in room n richtete der täter mehrere chatrooms auf der verschlüsselten instant-messaging-software telegram ein und veröffentlichte sexuell ausbeuterische inhalte. dieser vorfall ereignete sich hauptsächlich auf telegram.
der hauptunterschied zwischen den beiden besteht in den mitteln der kriminalität: das eine ist geheime fotografie und das andere ist deepfake.
wir kennen deepfake bereits, das mithilfe von ki scheinbar reale videos, audios oder bilder generiert, um dinge zu simulieren, die in wirklichkeit nicht passiert sind.
deepfakes werden häufig in der unterhaltungsindustrie und bei politikern eingesetzt, sie werden aber auch von gewöhnlichen menschen kontrolliert und dazu verwendet, anderen gewöhnlichen menschen schaden zuzufügen.
die täter von raum n 2.0 haben ihre krallen auf ihre familienmitglieder, kollegen und klassenkameraden ausgestreckt. viele telegram-chatrooms sind nach schulen oder regionen organisiert, sodass gruppenmitglieder gemeinsame bekanntschaften und ähnliche themen haben.
chatrooms nach hochschule
neben den frauen um sie herum sind auch weibliche prominente das ziel ihrer jagd. einige chatrooms sind sogar nach berufsgruppen unterteilt, darunter lehrer, krankenschwestern, soldaten usw.
die hankyoreh daily berichtete, dass ein telegram-chatroom mit 227.000 teilnehmern nur fotos von frauen benötigte, um in 5 bis 7 sekunden deepfake-inhalte zu generieren.
was ist das konzept von 220.000? südkorea wird im jahr 2023 nur 230.000 neugeborene haben, und die gesamtbevölkerung beträgt nur über 50 millionen.
dieser chatraum verfügt über einen roboter, der frauenfotos zu nacktfotos zusammenfügt und brüste anpassen kann. nachdem der benutzer den chatraum betritt, erscheint im chatfenster eine meldung: „senden sie jetzt die frauenfotos, die ihnen gefallen.“
screenshot des chatrooms, der die verwendung von deepfake veranschaulicht
die anzahl der teilnehmer ist unverschämt, was möglicherweise mit der niedrigen „eintrittsschwelle“ zusammenhängt: links können durch die suche nach bestimmten schlüsselwörtern auf x (ehemals twitter) gefunden werden.
dieser chatroom hat auch ein monetarisierungsmodell etabliert. die ersten beiden fotos sind kostenlos, danach wird eine gebühr von 1 diamant (0,49 usd, ca. 3,47 rmb) pro foto erhoben. zahlungen können aus gründen der anonymität nur mit virtueller währung erfolgen. wenn sie freunde einladen, können sie auch kostenlose credits erhalten.
es gibt aber auch einige chatrooms, die eine „zulassungsbescheinigung“ erfordern – wer der gruppe beitreten möchte, muss zunächst 10 fotos von personen einreichen, die man kennt, und das vorstellungsgespräch bestehen.
als „rohmaterialien“ können avatare der chat-software kakaotalk und fotos von instagram verwendet werden.
noch erschreckender ist, dass ein großteil der opfer und täter teenager sind.
freiwillige erstellten eine karte, die in echtzeit aktualisiert wurde und zeigt, in welchen schulen die verbrechen begangen wurden. selbst in einer reinen mädchenschule wird es opfer geben, denn die täter sind nicht unbedingt klassenkameraden.
wie viele schulen genau betroffen sind, muss noch ermittelt werden. einige blogger behaupteten, dass dieses mal mehr als 70 % der schulen beteiligt waren.
am 26. august wies „korea joongang daily“ darauf hin, dass mindestens etwa 300 schulen im ganzen land darunter seien, darunter sogar grundschulen. am 28. august erhöhte der wsj-bericht die zahl auf etwa 500 schulen.
ein internetnutzer beklagte sich im kommentarbereich: „das ist im grunde ganz südkorea …“
obwohl es zu diesem vorfall noch kein eindeutiges untersuchungsergebnis gibt, können auch frühere daten den ernst der lage veranschaulichen.
laut statistiken des korea women's human rights institute suchten von januar bis august dieses jahres insgesamt 781 deepfake-opfer hilfe, von denen 288 minderjährige waren, was 36,9 % entspricht. die tatsächliche zahl liegt wahrscheinlich viel höher.
darüber hinaus gab die südkoreanische nationalpolizeibehörde an, dass seit anfang 2023 etwa 70 % der rund 300 personen, denen die herstellung und verbreitung falscher nacktfotos vorgeworfen wird, teenager seien.
viele koreanische frauen gingen zu weibo, um um hilfe zu bitten. sie konnten kein chinesisch und konnten den inhalt nur auf ihren telefonen lesen, was ihre hilflosigkeit und angst zum ausdruck brachte. „raum n 2.0“ wurde einst zu einer heißen suche auf weibo.
einige internetnutzer fragen sich, warum koreanische frauen das chinesische internet um hilfe gebeten haben. tatsächlich sprechen nicht nur chinesische koreanische frauen auch in anderen sprachen über diesen vorfall.
sie glauben, dass die medien aktiver berichten und die zuständigen behörden ernsthafter ermitteln werden, wenn sie von ausländern beachtet und kritisiert werden, anstatt sich taub zu stellen und stillschweigen zu bewahren.
einige strafrechtliche beweise und sogar die identität des initiators wurden von koreanischen frauen selbst untersucht, ähnlich wie damals bei room n. glücklicherweise haben der südkoreanische präsident und der vorsitzende der oppositionspartei ihre haltung zum ausdruck gebracht: der südkoreanische präsident yin xiyue hat folgendes vorgeschlagen:
deepfakes sind eindeutig ein digitales sexualverbrechen und wir werden sie ein für alle mal ausrotten.
deepfakes mögen als scherz angesehen werden, aber es handelt sich eindeutig um kriminelle handlungen, bei denen technologie unter dem deckmantel der anonymität zum einsatz kommt und jeder zum opfer werden kann.
die server von telegram befinden sich im ausland und der ceo ist in paris inhaftiert, was die ermittlungen erschwert. die korea communications standards commission sagte, sie habe einen brief verschickt, in dem sie die französische regierung zur zusammenarbeit bei der untersuchung von telegram aufforderte.
nachdem sie die aufmerksamkeit der öffentlichkeit auf sich gezogen hatten, wurden entsprechende verhaltensweisen zurückgehalten. die hankyoreh daily berichtete jedoch, dass einige skrupellose benutzer eine strengere „identitätsprüfung“ bestehen und weiterhin deepfaking in privateren chatrooms betreiben werden.
screenshot eines chatrooms, in dem benutzer darüber diskutieren, einem privateren chatroom beizutreten
falscher inhalt, echter schaden
deepfakes sind nichts neues, aber ihr schaden wird selten anerkannt.
einige frauen in südkorea haben ihre social-media-konten privatisiert oder online veröffentlichte fotos gelöscht, um wiedergutmachung zu leisten.
sie waren verzweifelt und zweifelten. einerseits wissen sie nicht, wo ihre fotos geteilt wurden und wie weit sie sich verbreitet haben. andererseits verstehen sie nicht, warum opfer aufgefordert werden, beim hochladen von fotos vorsichtig zu sein, anstatt die täter aufzuklären.
als eine schülerin in ihrer instagram-story dazu aufrief, „alle von dir hochgeladenen fotos zu entfernen“, könnten die jungen derselben schule sagen: „du bist zu hässlich, um für solche dinge benutzt zu werden.“
die bemerkung des täters, dass frauen zu groß seien
im internet gibt es immer noch solche stimmen: „ich weiß nicht, warum diese art von verbrechen so viel schaden anrichtet.“
doch was die opfer erleben, ist mehr als nur der anblick ihrer gefälschten gesichter. die täter werden sie auch beleidigen, ihre persönlichen daten wie adressen, telefonnummern und studentenausweise verbreiten, gerüchte über ihr privatleben verbreiten und auf sie zugehen und sie belästigen.
noch beängstigender ist die begegnung mit „rachepornos“ – täter drohen damit, fake-materialien zu verbreiten, um frauen zu erpressen und zu schädigen, was zu schwerwiegenderen folgeschäden führt.
ein koreanischer youtuber sagt, dass frauen viel aufhebens machen, aber er weiß, dass er sich maskieren muss, um sich zu schützen
der korea herald berichtete, dass song, ein 17-jähriger gymnasiast aus der provinz gyeonggi, einige tanzfotos und kurze videos online geteilt habe. eines tages erhielt sie auf instagram eine anonyme nachricht mit drei expliziten fotos: „verstehen deine freunde und eltern diese seite deines lebens?“
diese fotos sind allesamt deepfakes, aber von echten bildern kaum zu unterscheiden. der albtraum ist noch nicht vorbei und die nachrichten, auf die sie antwortet, werden die andere partei nur noch aufgeregter machen und noch mehr anforderungen stellen.
screenshots von textnachrichten zwischen song und dem täter, auf wunsch von song geändert und ins englische übersetzt
niemand kann den schmerz teilen. einige opfer sagten sogar: „die welt, wie ich sie kannte, ist zusammengebrochen.“
dies entspricht nicht dem vom täter gezahlten preis.
screenshot des chatrooms, einige obszöne bemerkungen wie „sie können die pose festlegen, in der sie fotos machen möchten, das ist super cool“
der vorfall ist noch nicht geklärt, aber südkorea hat deepfake bereits verurteilt, wovon am 28. august der erste prozess stattfand.
von juli 2020 bis april dieses jahres stahl park gesichtsfotos von weiblichen opfern wie universitätsabsolventen, produzierte 419 deepfake-pornovideos und verbreitete 1.735 davon. er wurde zu fünf jahren gefängnis verurteilt.
die opfer begannen im juli 2021 herumzurennen, bevor es ihnen gelang, den täter vor gericht zu bringen, und park wurde im mai dieses jahres strafrechtlich verfolgt.
aufgrund dieses groß angelegten deepfake-vorfalls erwägen die zuständigen südkoreanischen behörden, die maximale haftstrafe von 5 auf 7 jahre zu erhöhen.
südkoreanische frauen sprechen sich gegen sexualverbrechen aus
angesichts der tatsache, dass deepfake-jugendstraftaten sehr häufig sind, es jedoch gesetzeslücken gibt, misst südkorea die höchststrafe für täter in der pflichtschulstufe.
bis heute ist deepfake vielerorts noch eine grauzone und die schutzbemühungen können mit der geschwindigkeit der bedrohungen nicht mithalten.
wenn das opfer beispielsweise ein erwachsener ist, gibt es in den vereinigten staaten unterschiedliche gesetze und vorschriften, die entweder kriminalisieren oder zivilklagen einreichen, aber derzeit gibt es kein bundesgesetz, das die produktion von deepfake-pornografischen inhalten verbietet.
screenshot des chatrooms, mitglieder chatten über gemeinsame bekannte
ein grund, warum die gesetzgebung schwierig ist, besteht darin, dass manche leute glauben, dass das subjekt auf dem deepfake-bild, selbst wenn es wie sie aussieht, es nicht wirklich sie sind, sodass ihre privatsphäre nicht wirklich verletzt wird.
jeder weiß jedoch, dass das bild zwar falsch ist, der schaden jedoch real ist.
das gesetz schreitet langsam voran, und gleichzeitig haben die täter, die nie aufgetaucht sind, ihre aktivitäten vorübergehend „eingestellt“ und warten auf „ein comeback“.
es ist so einfach, böses zu tun, deepfakes sind für jeden relevant
südkorea ist keine ausnahme. deepfake findet unabhängig von landesgrenzen statt.
im september 2023 lud eine gruppe jungen in der spanischen stadt almendralejo in sozialen medien gepostete fotos ihrer klassenkameradinnen auf ein ki-tool zum „one-click-stripping“ hoch. es gibt fünf mittelschulen in der stadt, und in mindestens vier von ihnen wurden „nacktfotos“ von klassenkameradinnen verbreitet.
dieses tool kann über mobile apps oder telegram genutzt werden. es gibt mindestens 30 opfer, hauptsächlich studentinnen im alter von 12 bis 14 jahren.
die meisten initiatoren kannten sie und waren ebenfalls minderjährig. mindestens zehn von ihnen waren sogar unter 14 jahre alt und konnten nicht strafrechtlich verfolgt werden.
eine mutter ruft dazu auf, dass sich mehr opfer melden
sie erstellten gruppenchats auf whatsapp und telegram, um diese „nacktfotos“ zu verbreiten, und drohten den opfern über instagram, „lösegeld“ und echte nacktfotos zu erpressen.
eine ähnliche situation ereignete sich in einer high school in new jersey, usa. dort machten etwa 30 männliche klassenkameraden während der sommerferien „nacktfotos“.
der schulleiter versicherte, dass alle bilder gelöscht worden seien und nicht erneut verbreitet würden. der initiator wurde für einige tage von der schule suspendiert und kehrte zum „tatort“ zurück, als ob nichts passiert wäre.
deepfake tauchte erstmals 2017 auf reddit auf, der „amerikanischen version von tieba“. die hauptform besteht darin, die gesichter von prominenten durch die protagonisten pornografischer videos zu ersetzen oder politische persönlichkeiten zu fälschen.
aus technischer sicht gibt es zwei hauptpfade: der eine ist der encoder-decoder-pfad, der durch komprimieren und rekonstruieren des bildes ein gesicht durch ein anderes ersetzt, der andere ist der generator-diskriminator-pfad (d. h. generative adversarial networks (gans)). realistische bilder durch gegnerisches training.
gan
heutzutage ist deepfake ein weiter gefasster begriff, der sich nicht mehr nur auf den ersatz des originalgesichts beschränkt, sondern wir bezeichnen damit jeden akt der verfälschung der realität durch technische mittel.
hinter den kulissen verbergen sich komplexe technische prinzipien. auch jugendliche können über „out-of-the-box“-schnittstellen falsche informationen erzeugen und sind damit von einer technologie nahezu ohne schwellenwerte verkommen.
„one-click-ausziehen“-apps erfordern lediglich ein foto, eine e-mail-adresse und ein paar dollar, um die „kleidung“ von prominenten, klassenkameraden und fremden stapelweise auszuziehen. die zum „ausziehen“ verwendeten bilder stammen oft aus social-media-aufnahmen. ohne zustimmung des herausgebers verbreitet und dann auch ohne dessen wissen verbreitet.
basierend auf einem open-source-verbreitungsmodell, das auf massiven bildern trainiert wird, können benutzer durch die eingabe von aufforderungswörtern gefälschte, explizite fotos von prominenten erstellen.
das ki-modell einer hollywood-schauspielerin wurde tausende male heruntergeladen
open-source-github-projekte wie deep-live-cam können gesichter in videochats mit nur einem foto ändern.
es mag schwierig sein, junge menschen zu täuschen, aber das gilt nicht unbedingt für ältere menschen. ein tragisches beispiel hat sich in der realität bereits ereignet: ein 82-jähriger mann in den vereinigten staaten hat aufgrund seines blinden vertrauens in die ki 690.000 us-dollar verloren ​musk, der im video die leute getäuscht hat.
live-übertragung von ai musk
im juli 2023 veröffentlichte die deutsche telekom eine anzeige zum thema datensicherheit bei kindern und forderte eltern dazu auf, die privatsphäre von kindern so wenig wie möglich im internet preiszugeben.
bilder, videos und audios sind alle deepfake. obwohl wir rational verstehen, dass „sehen ist glauben“ der vergangenheit angehört, hat unsere psychologie dies noch nicht vollständig akzeptiert und wir verfügen nicht über die entsprechende fähigkeit, alle zu unterscheiden kann zum opfer werden.
technologie mag neutral sein, aber die informationen, die menschen mithilfe von technologie produzieren, sind nicht nur informationen, sondern auch waffen, die dazu dienen, zu demütigen, zu stigmatisieren und ein gefühl der überlegenheit zu erlangen. je vulgärer und bizarrer der inhalt, desto leichter lässt er sich verbreiten. das gilt schon seit der antike.
was können normale menschen tun? zumindest können wir entscheiden, wie wir technologie nutzen, und wir können auch entscheiden, welche informationen wir produzieren und verbreiten, den opfern aufmerksamkeit schenken, die täter verspotten und unsere kleine macht nutzen, um den fortschritt von gesetzen und gesellschaftlichen konzepten voranzutreiben.
warum hat das opfer nach dem gesichtsaustausch die fotos gelöscht? warum schämen sich opfer so sehr, nachdem sie heimlich fotografiert wurden? dies scheint eine frage zu sein, die selbst die technologie nicht beantworten kann.