νέα

το δωμάτιο n στη νότια κορέα επανεμφανίζεται! ένας μεγάλος αριθμός γυναικών των οποίων τα πρόσωπα άλλαξε η τεχνητή νοημοσύνη ζήτησαν βοήθεια στο weibo, με τη συμμετοχή 500 σχολείων και περισσότερα από 220.000 άτομα που συμμετείχαν.

2024-08-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

στο έργο «ghost in the shell» στα τέλη του περασμένου αιώνα, ο motoko, του οποίου όλο το σώμα μεταμορφώθηκε σε προσθετικό σώμα, αμφέβαλλε αν υπήρχε ακόμα. το σώμα, η μνήμη και οι σχέσεις με άλλους ανθρώπους, όταν αυτά τα πράγματα μπορούν να αναπαραχθούν, δεν μπορούν να χρησιμοποιηθούν ως επιχείρημα για τη φυσική ζωή.

όταν η τραγουδίστρια της τεχνητής νοημοσύνης έγινε δημοφιλής, η stefanie sun έκανε επίσης μια παρόμοια άποψη στην απάντησή της δεν είστε ξεχωριστοί, είστε ήδη προβλέψιμοι και δυστυχώς είστε επίσης προσαρμόσιμοι.

μπορούμε να προσθέσουμε ότι οποιοσδήποτε μπορεί να περιγραφεί και να δημιουργηθεί από την τεχνητή νοημοσύνη, ακόμα κι αν δεν έχετε κάνει ποτέ κάτι.

ο lu xun είπε πραγματικά ότι όταν είδε τα κοντά μανίκια, σκέφτηκε αμέσως τα λευκά μπράτσα. η ανθρώπινη φαντασία είναι κοινή. δεν αποτελεί έκπληξη το γεγονός ότι κάθε φορά που υπάρχει μια νέα εξέλιξη στην τεχνολογία, μια συγκεκριμένη κάθετη διαδρομή θα αναπτύσσεται όλο και πιο ώριμα: η πορνογραφία.

η νότια κορέα, που κάποτε συγκλόνισε τον κόσμο λόγω του room n, βρίσκεται τώρα στην έκδοση 2.0.

βία από απλούς ανθρώπους εναντίον απλών ανθρώπων

στο προηγούμενο περιστατικό στο room n, ο δράστης δημιούργησε πολλά δωμάτια συνομιλίας στο κρυπτογραφημένο λογισμικό άμεσων μηνυμάτων telegram και δημοσίευσε περιεχόμενο σεξουαλικής εκμετάλλευσης. αυτό το περιστατικό συνέβη κυρίως στο telegram.

η κύρια διαφορά μεταξύ των δύο είναι τα μέσα εγκληματικότητας: το ένα είναι η μυστική φωτογραφία και το άλλο είναι το deepfake.

είμαστε ήδη εξοικειωμένοι με το deepfake, το οποίο χρησιμοποιεί την τεχνητή νοημοσύνη για να δημιουργήσει φαινομενικά αληθινά βίντεο, ήχους ή εικόνες για να προσομοιώσει πράγματα που στην πραγματικότητα δεν συνέβησαν.

τα deepfakes χρησιμοποιούνται συνήθως στη βιομηχανία του θεάματος και στους πολιτικούς, αλλά ελέγχονται επίσης από απλούς ανθρώπους και χρησιμοποιούνται για να βλάψουν άλλους απλούς ανθρώπους.

οι δράστες του room n 2.0 έχουν απλώσει τα νύχια τους στα μέλη της οικογένειάς τους, τους συναδέλφους και τους συμμαθητές τους.

▲δωμάτια συνομιλίας ανά πανεπιστημιούπολη

εκτός από τις γυναίκες γύρω τους, στόχοι του κυνηγιού τους είναι και οι γυναίκες celebrities. ορισμένα δωμάτια συνομιλίας υποδιαιρούνται ακόμη και σε τύπους επαγγελμάτων, συμπεριλαμβανομένων δασκάλων, νοσοκόμων, στρατιωτών κ.λπ.

η hankyoreh daily ανέφερε ότι ένα δωμάτιο συνομιλίας στο telegram με 227.000 συμμετέχοντες χρειαζόταν μόνο φωτογραφίες γυναικών για να δημιουργήσει βαθιά ψεύτικο περιεχόμενο σε 5 έως 7 δευτερόλεπτα.

ποια είναι η έννοια των 220.000; η νότια κορέα θα έχει μόνο 230.000 νεογέννητα το 2023 και ο συνολικός πληθυσμός της είναι μόνο πάνω από 50 εκατομμύρια.

αυτό το chat room έχει ένα ρομπότ που συνδυάζει γυναικείες φωτογραφίες σε γυμνές φωτογραφίες και μπορεί να προσαρμόσει το στήθος αφού ο χρήστης εισέλθει στο chat room, θα εμφανιστεί ένα μήνυμα στο παράθυρο συνομιλίας: "τώρα στείλτε τις γυναικείες φωτογραφίες που σας αρέσουν".

▲ στιγμιότυπο οθόνης του chat room, που εξηγεί πώς να χρησιμοποιήσετε το deepfake

ο αριθμός των συμμετεχόντων είναι εξωφρενικός, κάτι που μπορεί να σχετίζεται με το χαμηλό "όριο εισόδου": οι σύνδεσμοι μπορούν να βρεθούν αναζητώντας συγκεκριμένες λέξεις-κλειδιά στο x (πρώην twitter).

αυτό το chat room έχει επίσης καθιερώσει ένα μοντέλο δημιουργίας εσόδων. οι δύο πρώτες φωτογραφίες είναι δωρεάν και, στη συνέχεια, υπάρχει χρέωση 1 διαμαντιού (0,49 usd, περίπου 3,47 rmb) ανά φωτογραφία. οι πληρωμές μπορούν να γίνουν μόνο με εικονικό νόμισμα για λόγους ανωνυμίας. εάν προσκαλέσετε φίλους, μπορείτε επίσης να λάβετε μερικές δωρεάν πιστώσεις.

υπάρχουν όμως και κάποια δωμάτια συνομιλίας που απαιτούν «πιστοποιητικό εισδοχής» - αν θέλετε να εγγραφείτε στην ομάδα, πρέπει πρώτα να υποβάλετε 10 φωτογραφίες ατόμων που γνωρίζετε και να περάσετε τη συνέντευξη.

ως «πρώτες ύλες» μπορούν να χρησιμοποιηθούν άβαταρ από το λογισμικό συνομιλίας kakaotalk και φωτογραφίες από το instagram.

το ακόμη πιο τρομακτικό είναι ότι ένα μεγάλο ποσοστό τόσο των θυμάτων όσο και των δραστών είναι έφηβοι.

εθελοντές δημιούργησαν έναν χάρτη που ενημερωνόταν σε πραγματικό χρόνο, δείχνοντας σε ποια σχολεία συνέβαιναν τα εγκλήματα. ακόμα και σε ένα αποκλειστικά παρθεναγωγείο θα υπάρξουν θύματα, γιατί οι δράστες δεν είναι απαραίτητα συμμαθητές.

το πόσα ακριβώς σχολεία έχουν πληγεί δεν έχει ακόμη προσδιοριστεί. ορισμένοι bloggers ισχυρίστηκαν ότι περισσότερο από το 70% των σχολείων συμμετείχαν αυτή τη φορά.

στις 26 αυγούστου, η «korea joongang daily» επεσήμανε ότι περιλάμβανε τουλάχιστον περίπου 300 σχολεία σε όλη τη χώρα, συμπεριλαμβανομένων ακόμη και των δημοτικών σχολείων. στις 28 αυγούστου, η έκθεση wsj επέκτεινε τον αριθμό σε περίπου 500 σχολεία.

ένας χρήστης του διαδικτύου θρήνησε στην περιοχή σχολίων: "αυτή είναι βασικά ολόκληρη η νότια κορέα..."

αν και δεν υπάρχει σαφές αποτέλεσμα της έρευνας για αυτό το περιστατικό, δεδομένα του παρελθόντος μπορούν επίσης να καταδείξουν τη σοβαρότητα της κατάστασης.

σύμφωνα με στατιστικά στοιχεία του ινστιτούτου ανθρωπίνων δικαιωμάτων της κορέας των γυναικών, από τον ιανουάριο έως τον αύγουστο του τρέχοντος έτους, συνολικά 781 θύματα deepfake αναζήτησαν βοήθεια, εκ των οποίων οι 288 ήταν ανήλικοι, αντιπροσωπεύοντας το 36,9%. ο πραγματικός αριθμός είναι πιθανότατα πολύ μεγαλύτερος από αυτό.

επιπλέον, η εθνική αστυνομική υπηρεσία της νότιας κορέας δήλωσε ότι από τις αρχές του 2023, περίπου το 70% των περίπου 300 ατόμων που κατηγορούνται για παραγωγή και διανομή ψευδών γυμνών φωτογραφιών ήταν έφηβοι.

πολλές κορεάτισσες πήγαν στο weibo για να ζητήσουν βοήθεια δεν ήξεραν κινέζικα και μπορούσαν να διαβάσουν μόνο το περιεχόμενο στα τηλέφωνά τους, μεταφέροντας την αδυναμία και τον φόβο τους το "room n 2.0" έγινε μια καυτή αναζήτηση στο weibo.

ορισμένοι χρήστες του διαδικτύου αναρωτιούνται γιατί οι κορεάτισσες πήγαν στο διαδίκτυο για βοήθεια.

πιστεύουν ότι εάν τους δοθεί προσοχή και κριτική από ξένους, τα μμε θα αναφέρουν πιο ενεργά και οι αρμόδιες υπηρεσίες θα ερευνήσουν πιο σοβαρά, αντί να παριστάνουν τους κωφούς και να σιωπούν τα πράγματα.

ορισμένα εγκληματικά στοιχεία και ακόμη και η ταυτότητα του εμπνευστή ερευνήθηκαν από τις ίδιες τις κορεάτισσες, παρόμοια με το room n τότε. ευτυχώς, ο πρόεδρος της νότιας κορέας και ο ηγέτης του κόμματος της αντιπολίτευσης εξέφρασαν τη θέση τους, ο πρόεδρος yin xiyue της νότιας κορέας πρότειναν:

τα deepfakes είναι ένα ξεκάθαρο ψηφιακό σεξουαλικό έγκλημα και θα τα εξαλείψουμε μια για πάντα.

τα deepfakes μπορεί να θεωρηθούν ως φάρσα, αλλά είναι ξεκάθαρα εγκληματικές πράξεις που χρησιμοποιούν τεχνολογία υπό την κάλυψη της ανωνυμίας και ο καθένας μπορεί να γίνει θύμα.

οι διακομιστές του telegram βρίσκονται στο εξωτερικό και ο διευθύνων σύμβουλός του κρατείται στο παρίσι, δυσκολεύοντας τις έρευνες. η επιτροπή προτύπων επικοινωνιών της κορέας δήλωσε ότι έστειλε επιστολή ζητώντας από τη γαλλική κυβέρνηση να συνεργαστεί στη διερεύνηση του telegram.

μετά την προσέλκυση της προσοχής της κοινής γνώμης, οι σχετικές συμπεριφορές έχουν περιοριστεί, ωστόσο, η hankyoreh daily ανέφερε ότι ορισμένοι αδίστακτοι χρήστες θα περάσουν πιο αυστηρή "επαλήθευση ταυτότητας" και θα συνεχίσουν να κάνουν βαθιά παραποίηση σε πιο ιδιωτικά δωμάτια συνομιλίας.

▲ στιγμιότυπο οθόνης του chat room, οι χρήστες συζητούν για τη συμμετοχή σε ένα πιο ιδιωτικό chat room

ψευδές περιεχόμενο, πραγματικό κακό

τα deepfakes δεν είναι κάτι καινούργιο, αλλά η βλάβη τους σπάνια αναγνωρίζεται.

ορισμένες γυναίκες στη νότια κορέα έχουν κάνει τους λογαριασμούς τους στα μέσα κοινωνικής δικτύωσης ιδιωτικούς ή έχουν διαγράψει φωτογραφίες που δημοσιεύτηκαν στο διαδίκτυο σε μια προσπάθεια να επανορθώσουν.

ήταν στενοχωρημένοι και αμφίβολοι. από τη μία πλευρά, δεν ξέρουν πού έχουν κοινοποιηθεί οι φωτογραφίες τους και πόσο έχουν εξαπλωθεί. από την άλλη πλευρά, δεν καταλαβαίνουν γιατί ζητείται από τα θύματα να είναι προσεκτικά στο ανέβασμα φωτογραφιών αντί να εκπαιδεύουν τους δράστες.

όταν μια μαθήτρια κάλεσε την ιστορία της στο instagram για να «βγάλει όλες τις φωτογραφίες που ανεβάσατε», τα αγόρια στο ίδιο σχολείο θα μπορούσαν να πουν: «είσαι πολύ άσχημη για να σε χρησιμοποιήσουν σε αυτά τα πράγματα.

▲τα σχόλια του δράστη, ότι οι γυναίκες στέκονται πολύ ψηλά

υπάρχουν ακόμα κάποιες φωνές όπως αυτή στο διαδίκτυο: «δεν ξέρω γιατί αυτού του είδους το έγκλημα προκαλεί τόσο μεγάλο κακό».

αλλά αυτό που βιώνουν τα θύματα είναι κάτι περισσότερο από το να βλέπουν απλώς τα πρόσωπά τους ψεύτικα. οι δράστες θα τους προσβάλλουν, θα διαδώσουν τα προσωπικά τους στοιχεία όπως διευθύνσεις, αριθμούς τηλεφώνου και φοιτητικές ταυτότητες, θα διαδώσουν φήμες για την ιδιωτική τους ζωή και θα τους πλησιάσουν και θα τους παρενοχλήσουν.

αυτό που είναι ακόμα πιο τρομακτικό είναι να συναντούν «πορνό εκδίκησης» - οι δράστες απειλούν να διαδώσουν ψεύτικο υλικό για να εκβιάσουν και να βλάψουν γυναίκες, προκαλώντας σοβαρότερη δευτερεύουσα βλάβη.

▲ ένας κορεάτης youtuber είπε ότι οι γυναίκες κάνουν φασαρία, αλλά ξέρει πώς να προστατεύεται με το να καλύπτεται

η korea herald ανέφερε ότι ο song, ένας 17χρονος μαθητής γυμνασίου στην επαρχία gyeonggi, συνήθιζε να μοιράζεται μερικές χορευτικές φωτογραφίες και σύντομα βίντεο στο διαδίκτυο. μια μέρα, έλαβε ένα ανώνυμο μήνυμα στο instagram με τρεις ξεκάθαρες φωτογραφίες: «οι φίλοι και οι γονείς σου καταλαβαίνουν αυτή την πλευρά της ζωής σου;»

αυτές οι φωτογραφίες είναι όλες deepfake, αλλά σχεδόν δεν διακρίνονται από τις πραγματικές εικόνες. ο εφιάλτης δεν έχει τελειώσει και τα μηνύματα που θα απαντήσει θα κάνουν την άλλη πλευρά να ενθουσιαστεί και να κάνει περισσότερες απαιτήσεις.

▲ στιγμιότυπα από μηνύματα κειμένου μεταξύ του song και του δράστη, τροποποιημένα και μεταφρασμένα στα αγγλικά σύμφωνα με το αίτημα του song

κανείς δεν μπορεί να μοιραστεί τον πόνο. κάποια θύματα είπαν μάλιστα: «ο κόσμος όπως τον ήξερα έχει καταρρεύσει».

αυτό δεν ισοδυναμεί με το τίμημα που πλήρωσε ο δράστης.

▲ στιγμιότυπα από το chat room, μερικές άσεμνες παρατηρήσεις, όπως "μπορείτε να ορίσετε τη πόζα που θέλετε για να κάνετε φωτογραφίες, είναι πολύ ωραίο"

το περιστατικό δεν έχει ακόμη διευθετηθεί, αλλά η νότια κορέα έχει καταδικάσει στο παρελθόν το deepfake, ένα από τα οποία είχε την πρώτη του δίκη στις 28 αυγούστου.

από τον ιούλιο του 2020 έως τον απρίλιο του τρέχοντος έτους, ο park έκλεψε τις φωτογραφίες του προσώπου γυναικών θυμάτων, όπως αποφοίτων πανεπιστημίου, παρήγαγε 419 πορνογραφικά βίντεο deepfake και διέδωσε 1.735 από αυτά καταδικάστηκε σε 5 χρόνια φυλάκιση.

τα θύματα άρχισαν να τρέχουν τον ιούλιο του 2021 προτού καταφέρουν να παραπέμψουν τον δράστη σε δίκη, και η park διώχθηκε τον μάιο του τρέχοντος έτους.

λόγω αυτού του περιστατικού μεγάλης κλίμακας deepfake, οι αρμόδιες αρχές της νότιας κορέας εξετάζουν το ενδεχόμενο να αυξήσουν τη μέγιστη ποινή φυλάκισης από 5 χρόνια σε 7 χρόνια.

▲γυναίκες της νότιας κορέας διαμαρτύρονται για τα σεξουαλικά εγκλήματα

λαμβάνοντας υπόψη ότι τα βαθιά ψεύτικα εγκλήματα ανηλίκων είναι πολύ συνηθισμένα, αλλά υπάρχουν κενά στη νομοθεσία, η νότια κορέα μετράει τη μέγιστη τιμωρία για τους δράστες στο στάδιο της υποχρεωτικής εκπαίδευσης.

μέχρι σήμερα, το deepfake εξακολουθεί να είναι μια γκρίζα περιοχή σε πολλά μέρη και οι προσπάθειες προστασίας δεν μπορούν να συμβαδίσουν με την ταχύτητα των απειλών.

για παράδειγμα, στις ηνωμένες πολιτείες, εάν το θύμα είναι ενήλικας, οι πολιτείες έχουν διαφορετικούς νόμους και κανονισμούς, είτε ποινικοποιούν είτε υποβάλλουν αστικές αγωγές, αλλά δεν υπάρχει επί του παρόντος ομοσπονδιακός νόμος που να απαγορεύει την παραγωγή πορνογραφικού περιεχομένου deepfake.

▲ στιγμιότυπο οθόνης του chat room, τα μέλη που συζητούν για κοινούς γνωστούς

ένας λόγος για τον οποίο η νομοθεσία είναι δύσκολη είναι ότι μερικοί άνθρωποι πιστεύουν ότι ακόμα κι αν το θέμα στην εικόνα του deepfake μοιάζει με εσάς, στην πραγματικότητα δεν είστε εσείς, επομένως το απόρρητό σας δεν παραβιάζεται πραγματικά.

ωστόσο, όλοι γνωρίζουν ότι αν και η εικόνα είναι ψευδής, το κακό είναι πραγματικό.

ο νόμος προχωρά σιγά σιγά και την ίδια ώρα όσοι δράστες δεν εμφανίστηκαν ποτέ «διέκοψαν τις δραστηριότητές τους» προσωρινά και περιμένουν «επιστροφή».

είναι τόσο εύκολο να κάνεις κακό, τα deepfakes είναι σχετικά με όλους

η νότια κορέα δεν αποτελεί εξαίρεση.

τον σεπτέμβριο του 2023, στην ισπανική πόλη almendralejo, μια ομάδα αγοριών ανέβασε φωτογραφίες των συμμαθητών τους που δημοσίευσαν στα μέσα κοινωνικής δικτύωσης σε ένα εργαλείο τεχνητής νοημοσύνης "απογείωσης με ένα κλικ". υπάρχουν πέντε γυμνάσια στην πόλη και σε τουλάχιστον τέσσερα από αυτά έχουν κυκλοφορήσει «γυμνές φωτογραφίες» συμμαθητών.

αυτό το εργαλείο μπορεί να χρησιμοποιηθεί μέσω εφαρμογών για κινητά ή telegram υπάρχουν τουλάχιστον 30 θύματα, κυρίως φοιτήτριες ηλικίας 12 έως 14 ετών.

οι περισσότεροι από τους εμπνευστές τους γνώριζαν και ήταν επίσης ανήλικοι. υπήρχαν τουλάχιστον 10 από αυτούς, μερικοί ακόμη και κάτω των 14 ετών, και δεν μπορούσαν να αντιμετωπίσουν ποινικές διώξεις.

▲μια μητέρα καλεί περισσότερα θύματα να εμφανιστούν

δημιούργησαν ομαδικές συνομιλίες στο whatsapp και στο telegram για να διαδώσουν αυτές τις «γυμνές φωτογραφίες» και απείλησαν τα θύματα μέσω του instagram να εκβιάσουν «λύτρα» και πραγματικές γυμνές φωτογραφίες.

παρόμοια κατάσταση σημειώθηκε σε λύκειο στο νιου τζέρσεϊ των ηπα υπήρχαν περίπου 30 θύματα οι άντρες συμμαθητές τους έβγαλαν «γυμνές φωτογραφίες» κατά τη διάρκεια των καλοκαιρινών διακοπών.

ο διευθυντής διαβεβαίωσε ότι όλες οι φωτογραφίες είχαν διαγραφεί και δεν θα διανεμηθούν ξανά.

το deepfake εμφανίστηκε για πρώτη φορά το 2017 στο reddit, την «αμερικανική εκδοχή του tieba».

από τεχνική άποψη, υπάρχουν δύο κύριες διαδρομές: η μία είναι η διαδρομή κωδικοποιητή-αποκωδικοποιητή, η οποία αντικαθιστά τη μία όψη με μία άλλη συμπιέζοντας και ανακατασκευάζοντας την εικόνα, η άλλη είναι η διαδρομή γεννήτριας-διακρίσεων (δηλαδή, τα generative adversarial networks (gan), που δημιουργούν. ρεαλιστικές εικόνες μέσω της αντίπαλης εκπαίδευσης.

▲γκαν

σήμερα, το deepfake είναι μια ευρύτερη έννοια, που δεν περιορίζεται πλέον στην αρχική αντικατάσταση προσώπου, το χρησιμοποιούμε για να αναφερθούμε σε οποιαδήποτε πράξη παραποίησης της πραγματικότητας μέσω τεχνολογικών μέσων.

οι σύνθετες τεχνικές αρχές είναι κρυμμένες στο παρασκήνιο.

οι εφαρμογές "γδύσιμο με ένα κλικ" απαιτούν μόνο μια φωτογραφία, μια διεύθυνση email και μερικά δολάρια για να βγάλουν τα "ρούχα" των διασημοτήτων, των συμμαθητών και των αγνώστων σε παρτίδες. χωρίς τη συγκατάθεση του εκδότη και στη συνέχεια το διαδίδει εν αγνοία του.

βασισμένο σε ένα μοντέλο διάχυσης ανοιχτού κώδικα που έχει εκπαιδευτεί σε τεράστιες εικόνες, οι χρήστες μπορούν να δημιουργήσουν ψεύτικες φωτογραφίες διασημοτήτων εισάγοντας προτρεπτικές λέξεις.

▲το μοντέλο ai μιας ηθοποιού του χόλιγουντ έχει ληφθεί χιλιάδες φορές

έργα ανοιχτού κώδικα github, όπως το deep-live-cam, μπορούν να αλλάξουν πρόσωπα σε συνομιλίες μέσω βίντεο μόνο με μια φωτογραφία.

μπορεί να είναι δύσκολο να εξαπατηθούν οι νέοι, αλλά δεν ισχύει απαραίτητα για τους ηλικιωμένους ένα τραγικό παράδειγμα έχει ήδη συμβεί στην πραγματικότητα - ένας 82χρονος άνδρας στις ηνωμένες πολιτείες έχασε 690.000 δολάρια λόγω της τυφλής πίστης του στην τεχνητή νοημοσύνη. ο μασκ που εξαπάτησε τους ανθρώπους στο βίντεο.

▲ ζωντανή μετάδοση του ai musk

τον ιούλιο του 2023, η deutsche telekom εξέδωσε μια διαφήμιση σχετικά με την ασφάλεια των δεδομένων των παιδιών, καλώντας τους γονείς να μοιράζονται το απόρρητο των παιδιών όσο το δυνατόν λιγότερο στο διαδίκτυο.

οι εικόνες, τα βίντεο και τα ηχητικά είναι όλα deepfake παρόλο που καταλαβαίνουμε ορθολογικά ότι "το να βλέπεις είναι να πιστεύεις" έχει γίνει παρελθόν, η ψυχολογία μας δεν το έχει αποδεχτεί πλήρως και δεν έχουμε την αντίστοιχη ικανότητα να ξεχωρίζουμε μπορεί να γίνει θύμα.

η τεχνολογία μπορεί να είναι ουδέτερη, αλλά οι πληροφορίες που χρησιμοποιούν οι άνθρωποι την τεχνολογία για να παράγουν δεν είναι απλώς πληροφορίες, αλλά και όπλα που χρησιμοποιούνται για να ταπεινώσουν, να στιγματίσουν και να αποκτήσουν μια αίσθηση ανωτερότητας. όσο πιο χυδαίο και παράξενο είναι το περιεχόμενο, τόσο πιο εύκολο είναι να διαδοθεί.

τι μπορούν να κάνουν οι απλοί άνθρωποι; τουλάχιστον μπορούμε να αποφασίσουμε πώς θα χρησιμοποιήσουμε την τεχνολογία και μπορούμε επίσης να επιλέξουμε ποιες πληροφορίες θα παράγουμε και θα διαδώσουμε, να δώσουμε προσοχή στα θύματα, να κοροϊδεύουμε τους δράστες και να χρησιμοποιήσουμε τη μικρή μας δύναμη για να προωθήσουμε την πρόοδο των νόμων και των κοινωνικών αντιλήψεων.

μετά την αλλαγή προσώπου, γιατί το θύμα διέγραψε τις φωτογραφίες; γιατί τα θύματα νιώθουν τόσο ντροπή αφού φωτογραφήθηκαν κρυφά; αυτό φαίνεται να είναι ένα ερώτημα που η τεχνολογία δεν μπορεί να απαντήσει.