Νέα

Αόρατοι έλεγχοι ασφαλείας: Όταν η Ευρώπη απαγορεύει εντελώς την αναγνώριση προσώπου, αρχίζει να «κοιτάει την καρδιά από το πρόσωπο»

2024-07-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Κείμενο |

Η δημόσια ασφάλεια είναι σαν την «ανοσία» της κοινωνίας μας. Μπορεί σπάνια να την προσέχουμε όταν συμβεί ένα ατύχημα, σημαίνει ότι έχει φτάσει ο κίνδυνος, ο οποίος μπορεί να κυμαίνεται από «κρύο» έως «μοιραίο». .

Οι επιθεωρήσεις ασφαλείας μπορούν να εντοπίσουν απτά επιβλαβή αντικείμενα, αλλά είναι δύσκολο να εντοπιστούν άυλα επιβλαβή συναισθήματα. Αυτά τα επιβλαβή συναισθήματα, όπως το ακραίο μίσος, οι συγκρούσεις, η κοινωνική ψυχολογία εκδίκησης κ.λπ., είναι σαν ωρολογιακές βόμβες που θα προκαλέσουν αθώα θύματα μόλις εκραγούν.

Επομένως, η δημόσια ασφάλεια δεν μπορεί να σταματήσει στην επιθεώρηση αντικειμένων.

Η ανίχνευση συναισθημάτων AI είναι ένα αόρατο εμπόδιο που βελτιώνει την «ανοσία» της δημόσιας ασφάλειας.

Σύμφωνα με τα τεχνολογικά μέσα WIRED, οι κάμερες σε βρετανικούς σιδηροδρομικούς σταθμούς χρησιμοποιούν αυτήν τη στιγμή το σύστημα ανίχνευσης συναισθημάτων της Amazon για να παρακολουθούν την κατάσταση μέσα στον σιδηροδρομικό σταθμό. Μόλις βρεθεί άτομο με μη φυσιολογική διάθεση, το προσωπικό θα ειδοποιηθεί για περαιτέρω έλεγχο.

Το γεγονός ότι η ανίχνευση συναισθημάτων μπορεί να εφαρμοστεί σε ευρωπαϊκές χώρες που έχουν αυστηρή προστασία των προσωπικών δεδομένων απορρήτου μπορεί να είναι αρκετό για να εξηγήσει κάτι.

Αυτό το άρθρο θα μιλήσει για το τι κάνει σωστά η ανίχνευση συναισθημάτων AI για να κάνει το παραδοσιακά συντηρητικό Ηνωμένο Βασίλειο να το αποδεχτεί; Πού είναι η αναγκαιότητα;

Σύμφωνα με αναφορές, έξυπνες κάμερες που χρησιμοποιούν αλγόριθμους αναγνώρισης συναισθημάτων θα χρησιμοποιηθούν για την ανίχνευση των συναισθημάτων των επιβατών τρένου και την πρόβλεψη πιθανών συναισθημάτων μέσω σάρωσης προσώπου για τον εντοπισμό μη φυσιολογικών συμπεριφορών όπως κλοπή και εισβολείς.

Το πιο δύσκολο κομμάτι αυτού του θέματος δεν είναι η τεχνολογία, αλλά πώς να αποδεχτείτε την ανίχνευση προσώπου για το κοινό στις ευρωπαϊκές χώρες με τους πιο αυστηρούς κανονισμούς αναγνώρισης προσώπου;

Η εφαρμογή της τεχνολογίας αναγνώρισης προσώπου σε δημόσιους χώρους στην Ευρώπη έχει περάσει από μια διαδικασία σημαντικών αλλαγών:

Πλήρης απαγόρευση.Από την έκρηξη της τεχνολογίας βαθιάς μάθησης το 2017, η αναγνώριση προσώπου στον τομέα του βιογραφικού έχει γίνει μια από τις κύριες εφαρμογές και η Ευρώπη το έχει ρυθμίσει αυστηρά τον Δεκέμβριο του 2019."Λευκή Βίβλος Τεχνητής Νοημοσύνης (Σχέδιο)", είπε ότι η χρήση της τεχνολογίας αναγνώρισης προσώπου σε δημόσιους χώρους θα απαγορευτεί για 3 έως 5 χρόνια.

Κούνια επανειλημμένα. Μετά τη δημοσίευση των πιο αυστηρών κανονισμών για την τεχνητή νοημοσύνη και τα δεδομένα στην ιστορία, ένας μεγάλος αριθμός αναλυτών και επαγγελματιών της τεχνολογίας δήλωσαν ότι αυτοί οι περιορισμοί έχουν εμποδίσει σε μεγάλο βαθμό την πρόοδο και την εφαρμογή της τεχνολογίας τεχνητής νοημοσύνης στην Ευρώπη, οδηγώντας σε στασιμότητα στην ανάπτυξη της τεχνητής νοημοσύνης βιομηχανία.Ωστόσο, η στάση της Ευρώπης προς αυτό ήταν πάντα σχετικά ταλαντευόμενη τον Φεβρουάριο του 2021.στρατηγική της ΕΕ για τα δεδομέναΌταν το έγγραφο αμβλύνει τη στάση του, είπε ότι θα το περιόριζε αυστηρά, αλλά δεν θα το απαγόρευε τελείως, τον Οκτώβριο εκείνου του έτους, εγκρίθηκε ένα ψήφισμα για να απαγορεύσει στην αστυνομία να χρησιμοποιεί τεχνολογία αναγνώρισης προσώπου σε δημόσιους χώρους.

Προσωρινή αναστολή.Τελικά, στις 13 Μαρτίου 2024, η Ευρώπη πέρασε το ορόσημοΝόμος περί τεχνητής νοημοσύνης, έχει αμβλύνει τη στάση της απέναντι στην τεχνολογία αναγνώρισης προσώπου, απαγορεύοντας «την εφαρμογή άσκοπης μεγάλης κλίμακας επιτήρησης που βασίζεται σε ευαίσθητα βιομετρικά στοιχεία (όπως η αναγνώριση προσώπου)» και εγκαταλείποντας την λογική χρήση της τεχνολογίας.

Γιατί δίδεται «ειδική μεταχείριση» στην ανίχνευση συναισθημάτων AI;

Αυτό μας φέρνει στο «αδύνατο τρίγωνο» της δημόσιας ασφάλειας: κόστος, οφέλη και εμπειρία.

Για τη δημόσια ασφάλεια, «η πρόληψη εκ των προτέρων είναι καλύτερη από τη θεραπεία μετά». Μόλις συμβεί ένα συμβάν υψηλού κινδύνου, το κόστος της «επιδιόρθωσης της κατάστασης» είναι συχνά η ανθρώπινη ζωή, επομένως θα πρέπει να υιοθετηθεί αυστηρότερη προηγούμενη επίβλεψη. Γενικά, είναι έλεγχος ασφαλείας.

Ωστόσο, υπάρχει ένα «αδύνατο τρίγωνο» στην επιθεώρηση ασφάλειας, το οποίο απαιτεί μια πολύπλοκη αντιστάθμιση μεταξύ του επενδυτικού κόστους, των οφελών για την ασφάλεια και της δημόσιας εμπειρίας.

Εάν η διαδικασία επιθεώρησης ασφαλείας δεν είναι αρκετά ευαίσθητη και προκύψει "χαμένη ανίχνευση", οι επιβλαβείς "ιοί" θα έχουν την ευκαιρία να την εκμεταλλευτούν. Οι επικίνδυνες ομάδες θα αναπτύξουν «αντοχή στα φάρμακα» στο σύστημα επιθεώρησης ασφαλείας, όπως ακριβώς η αυξημένη αντοχή του ιού στα φάρμακα, και θα βρουν κενά στη διαδικασία επιθεώρησης ασφαλείας για να την παρακάμψουν.

Αλλά γνωρίζουμε επίσης πολύ καλά ότι η αδιάκριτη υιοθέτηση επιθεωρήσεων ασφαλείας σε επίπεδο αεροδρομίου και επιθεωρήσεων σωματικής έρευνας λαθρεμπορίου σε οποιοδήποτε μέρος δεν θα επηρεάσει μόνο την αποτελεσματικότητα της κυκλοφορίας και την ταξιδιωτική εμπειρία των ανθρώπων, αλλά θα απαιτήσει επίσης μεγαλύτερο αριθμό προσωπικού επιθεώρησης ασφαλείας, γεγονός που θα επιφέρει υψηλό κόστος Οι δαπάνες κόστους και το οριακό όφελος είναι πολύ χαμηλά.

Ειδικά στους ευρωπαϊκούς μετρό, τους σταθμούς τρένων υψηλής ταχύτητας και τα γραφικά σημεία, δεν γίνονταν γενικά έλεγχοι ασφαλείας πριν, κάτι που ισοδυναμεί με «άνοιγμα της πόρτας» σε επικίνδυνα εμπορεύματα και τρομοκρατικές απειλές. Η εφαρμογή κανονικοποιημένων επιθεωρήσεων ασφαλείας από την αρχή απαιτεί την ανάπτυξη προσωπικού ασφαλείας, εξοπλισμού και άλλων δαπανών από την αρχή και την εκπαίδευση του κοινού να αλλάξει τις μακροχρόνιες ταξιδιωτικές του συνήθειες.

Στο πλαίσιο αυτό, η εφαρμογή της ανίχνευσης συναισθημάτων AI αναμένεται να βρει μια νέα λύση στο «αδύνατο τρίγωνο» των παραδοσιακών επιθεωρήσεων ασφαλείας.

Η ανίχνευση συναισθημάτων τεχνητής νοημοσύνης δεν είναι μια νέα τεχνολογία, οπότε γιατί έχει γίνει ένα σωτήριο άχυρο για την ευρωπαϊκή δημόσια ασφάλεια αυτή τη στιγμή;

Αυτό ξεκινά με πολλές αλλαγές:

Η πρώτη αλλαγή είναι η πρόοδος των αλγορίθμων, η οποία έχει αυξήσει σημαντικά τα οφέλη ασφαλείας.

Το σύστημα ανίχνευσης συναισθημάτων που χρησιμοποιείται στους βρετανικούς σιδηροδρομικούς σταθμούς υψηλής ταχύτητας είναι κάτι που η Amazon διερευνά εδώ και πολλά χρόνια στο ηλεκτρονικό εμπόριο, την ιατρική περίθαλψη, τη δημόσια ασφάλεια, το μάρκετινγκ και άλλους τομείς.Το σύστημα αναγνώρισης μπορεί να αναγνωρίσει μια ποικιλία συναισθημάτων, συμπεριλαμβανομένων της ευτυχίας, της λύπης, του θυμού, της έκπληξης, της αηδίας, της ηρεμίας και της σύγχυσης.

Για παράδειγμα, σε σενάρια ηλεκτρονικού εμπορίου, οι κάμερες καταστημάτων χρησιμοποιούνται για να κρίνουν τα συναισθήματα των καταναλωτών για να βελτιστοποιήσουν τις οθόνες των προϊόντων σε σενάρια προσωπικής ψυχαγωγίας. όπως ο θυμός ή η λύπη, για να παρέχουν παρηγοριά ή συμβουλές.

Μπορούμε να πούμε ότι οι τρέχοντες αλγόριθμοι ανάλυσης συναισθημάτων και αναγνώρισης συναισθημάτων είναι αρκετά ώριμοι και η ακρίβεια και η ακρίβεια ανίχνευσης μπορούν να ανταποκριθούν στις περίπλοκες απαιτήσεις συνεκτίμησης της αποτελεσματικότητας, της ασφάλειας και της εμπειρίας σε δημόσιους χώρους.

Η δεύτερη αλλαγή είναι η συνεχής πρόοδος της ψηφιακής κοινωνίας, καθιστώντας το κόστος της αναγνώρισης συναισθημάτων AI ελεγχόμενο.

Οι έξυπνες πόλεις βελτιώνονται συνεχώς σε πολλές χώρες και περιοχές σε όλο τον κόσμο Οι έξυπνες κάμερες που χρησιμοποιούνται για την αστική ασφάλεια επαναλαμβάνονται εδώ και πολλά χρόνια και η τρέχουσα τεχνολογία και τα προϊόντα είναι αρκετά ώριμα. Μεταξύ αυτών, οι έξυπνες κάμερες «καθορισμένες από λογισμικό» μπορούν να φορτώσουν διαφορετικούς αλγόριθμους στο διαδίκτυο για να εφαρμόσουν κάθετες έξυπνες εφαρμογές.

Η τρίτη αλλαγή είναι ότι τα τελευταία χρόνια, οι ανησυχίες των ανθρώπων σχετικά με τη δημόσια ασφάλεια και τις ανησυχίες για το απόρρητο έχουν μειωθεί, επομένως έχουν γίνει πιο αποδεκτοί στην ανίχνευση συναισθημάτων.

Με την αναταραχή στο παγκόσμιο πολιτικό και οικονομικό περιβάλλον, οι δημόσιες ανησυχίες για τη δημόσια ασφάλεια έχουν αυξηθεί, ειδικά στην Ευρώπη όπου η παράνομη μετανάστευση έχει αυξηθεί. Τα διακρατικά εγκλήματα και οι συγκρούσεις έχουν θέσει πολλές απειλές για τη δημόσια ασφάλεια.

Σε αυτό το πλαίσιο, η αναγνώριση συναισθημάτων AI όχι μόνο μπορεί να ανιχνεύσει πιθανά σημάδια έντασης και σύγκρουσης εκ των προτέρων για την αποφυγή περιστατικών δημόσιας ασφάλειας που προκαλούνται από συναισθηματική απώλεια, αλλά επίσης δεν είναι τόσο άβολη όσο η έκθεση της ιδιωτικής ζωής του προσώπου.

Αυτό οφείλεται στο γεγονός ότι τα δεδομένα που συλλέγονται από την ανίχνευση συναισθημάτων δεν είναι «αυστηρά αναγνωρίσιμα».

Όπως αναφέρεται στο «Δικαίωμα στην ιδιωτική ζωή», η ιδιωτικότητα είναι «το δικαίωμα να μένεις μόνος». Σε σύγκριση με την αναγνώριση προσώπου "ισχυρής αναγνώρισης",Η ανίχνευση συναισθημάτων τεχνητής νοημοσύνης σε δημόσιους χώρους δεν θα ενοχλεί το κοινό ούτε θα περιλαμβάνει προσωπικές πληροφορίες απορρήτου πριν εκτεθεί η κρίση. , δηλαδή, δεν είναι δυνατός ο μοναδικός προσδιορισμός και η ταυτοποίηση φυσικών προσώπων μέσω των συναισθημάτων και δεν θα γνωρίζει ποιο είναι το επίθετό σας. Αυτό μειώνει σημαντικά την αίσθηση του κοινού ότι κατασκοπεύεται.

Από αυτή την άποψη, η ανίχνευση συναισθημάτων τεχνητής νοημοσύνης έχει επιτύχει μια καλή ισορροπία όσον αφορά το κόστος, τα οφέλη και την εμπειρία και θα πρέπει να γίνει ένα αόρατο εμπόδιο για τη δημόσια ασφάλεια εκτός από τις παραδοσιακές επιθεωρήσεις ασφαλείας.

Η ανίχνευση συναισθημάτων τεχνητής νοημοσύνης και η πρόληψη κακοήθων ακραίων περιστατικών ασφαλείας θα αποφέρει σίγουρα περισσότερα οφέλη παρά βλάβη σε ολόκληρη την κοινωνία. Λοιπόν, πότε μπορούμε να το κάνουμε;

Ειλικρινά, τα έξυπνα συστήματα ασφαλείας σε μεγάλες και μεσαίες πόλεις της Κίνας τα πάνε ήδη πολύ καλά. Η δυσκολία έγκειταιΟ δρόμος για τον εντοπισμό των αλγορίθμων θα διαρκέσει ακόμα λίγο.

Το μεγαλύτερο εμπόδιο είναι ότι τα σύνολα δεδομένων δεν είναι αρκετά μεγάλα και όχι αρκετά καλά.

Επισκέφθηκα έναν δάσκαλο από ένα πανεπιστήμιο στο Shandong που χρησιμοποίησε τεχνολογία βαθιάς μάθησης για να αναπτύξει αλγόριθμους αναγνώρισης μικρο-έκφρασης. Οι μικροεκφράσεις χαρακτηρίζονται από πολύ μικρή διάρκεια, μικρές αλλαγές στο πλάτος κίνησης και δυσκολία απόκρυψης και καταστολής, επομένως είναι πολύ κατάλληλες για την ανίχνευση συναισθημάτων δυνητικά επικίνδυνων ατόμων.

Οι μικροεκφράσεις απαιτούν ψυχολογικά πειράματα για να συλλεχθούν και στη συνέχεια να αναλυθούν και να υποβληθούν σε επεξεργασία από υπολογιστές. Είναι απαραίτητο να δείξουμε πρώτα στα άτομα κάποια ερεθίσματα που έχουν αποδειχθεί από ψυχολόγους ότι προκαλούν την παραγωγή μικροεκφράσεων, στη συνέχεια να χρησιμοποιήσουμε μια κάμερα υψηλής ταχύτητας για να κοιτάξουμε το πρόσωπο του θέματος και να αφήσουμε τον υπολογιστή να αποθηκεύσει τις εικόνες καρέ-καρέ. Μετά τη συλλογή των δεδομένων, είναι απαραίτητο να επισημανθούν με ετικέτες συναισθημάτων και χωροχρονικά χαρακτηριστικά πεδίου, που είναι η αρχική στιγμή, η στιγμή λήξης και η στιγμή κορύφωσης της έκφρασης.

Ο δάσκαλος ανέφερε ότι προτού η ομάδα του δημιουργήσει τη βάση δεδομένων MMEW, υπήρχε έλλειψη ιδιαίτερα μεγάλων δημόσιων βάσεων δεδομένων για έρευνα μικροέκφρασης Η μεγαλύτερη βάση δεδομένων είχε μόνο 247 δείγματα και η ανάλυση της εικόνας δεν ήταν υψηλή.


Απαιτεί τόσο ψυχολογικά πειράματα όσο και μηχανική υπολογιστών Εάν ένα σύνολο δεδομένων μικρο-έκφρασης είναι τόσο δύσκολο, γιατί να το φτιάξετε μόνοι σας από την αρχή;

Γνωρίζουμε ότι η συναισθηματική έκφραση θα επηρεαστεί από τον πολιτισμό, την κοινωνική ζωή και άλλα υπόβαθρα. Οι περισσότερες από τις διεθνείς συναισθηματικές εικόνες βασίζονται σε δεδομένα που συλλέγονται από ξένα πρόσωπα, τα οποία μπορεί να μην είναι πολύ ακριβή όταν πρόκειται για τον προσδιορισμό της συναισθηματικής κατάστασης, της πρόθεσης και της συμπεριφοράς των Κινέζων προσώπων. Ως εκ τούτου, η πραγματική εφαρμογή της ανίχνευσης συναισθημάτων AI στον τομέα της δημόσιας ασφάλειας πρέπει ακόμα να ξεκινήσει από τη σταθερή κατασκευή εγχώριων συνόλων δεδομένων υψηλής ποιότητας.

Ένα άλλο ερώτημα είναι, με τον αλγόριθμο, ποιος θα το πουλήσει;

Για να είμαστε πιο ακριβείς, ποιος θα παρέχει την υπολογιστική ισχύ και μια σειρά από υπηρεσίες υποστήριξης; Η αναγνώριση συναισθημάτων είναι μια πολύπλοκη διαδικασία που απαιτεί ισχυρή υπολογιστική ισχύ για γρήγορη ανάλυση τεράστιων δεδομένων και ανατροφοδότηση των αποτελεσμάτων αναγνώρισης συναισθημάτων σε πραγματικό χρόνο, κάτι που απαιτεί εξαιρετικά υψηλή υπολογιστική ισχύ. Επιπλέον, η τεχνητή νοημοσύνη είναι μια συνεχώς εξελισσόμενη τεχνολογία και τα μοντέλα ανίχνευσης συναισθημάτων απαιτούν συνεχή μάθηση και βελτιστοποίηση για τη βελτίωση της ακρίβειας αναγνώρισης και των δυνατοτήτων γενίκευσης. Πάρτε για παράδειγμα το σύστημα αναγνώρισης που εφαρμόζεται σε βρετανικό σιδηροδρομικό σταθμό υψηλής ταχύτητας Είναι μια από τις υπηρεσίες cloud που λανσαρίστηκε από την Amazon AWS, η οποία εκτελεί μάθηση, ανάλυση και λειτουργικές βελτιώσεις στο cloud.

Στην Κίνα, επειδή περιλαμβάνει δεδομένα δημόσιας πληροφόρησης, πρέπει να ιδιωτικοποιηθούν και να αναπτυχθούν τοπικά. Στο τέλος, η βασική ανταγωνιστικότητα είναι η τεχνολογία αλγορίθμων και οι δυνατότητες υπηρεσιών ToB. Ως εκ τούτου, οι εγχώριες εταιρείες αλγορίθμων βιογραφικών θα είναι πιο ανταγωνιστικές από τους πωλητές cloud σε αυτήν την αγορά, ωστόσο, ο τρόπος επίλυσης του προβλήματος του κόστους της υπολογιστικής ισχύος και της ανθρώπινης αποδοτικότητας των υπηρεσιών είναι ένα μακροχρόνιο πρόβλημα για τις εταιρείες αλγορίθμων, το οποίο απαιτεί πιο εξελιγμένο και λογικό. επιχειρηματικό σχέδιο.

Η εξέδρα των εννέα ορόφων υψώνεται από τη βάση της γης. Αν και ο δρόμος για τον εντοπισμό της ανίχνευσης συναισθημάτων τεχνητής νοημοσύνης πρέπει ακόμα να ενοποιηθεί λίγο-λίγο από τα δεδομένα, τον αλγόριθμο, τις επιχειρήσεις και άλλα επίπεδα, χρησιμοποιώντας τεχνολογία για την ενίσχυση της «ασυλίας» της δημόσιας ασφάλειας, την αποφυγή φαύλων ατυχημάτων ασφάλειας και την επίτευξη ισορροπίας μεταξύ κόστος, όφελος και εμπειρία, θα πρέπει σταδιακά να γίνει η συναίνεση και ο στόχος ολόκληρης της κοινωνίας.

Οι άνθρωποι είναι ο σκοπός και η τεχνολογία είναι το μέσο.

Η τεχνολογία που προστατεύει το δικαίωμα των ανθρώπων στη ζωή θα πρέπει να έχει το δικαίωμα στην ανάπτυξη, ακόμη και στην Ευρώπη, η οποία είναι εξαιρετικά αυστηρή για τις νέες τεχνολογίες.