Nachricht

Unsichtbare Sicherheitskontrollen: Wenn Europa die Gesichtserkennung komplett verbietet, beginnt es, „vom Gesicht aus ins Herz zu schauen“

2024-07-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Text |. Gehirnkörper

Die öffentliche Sicherheit ist wie die „Immunität“ unserer Gesellschaft. Normalerweise schenken wir ihr kaum Aufmerksamkeit. Wenn sich ein Unfall ereignet, bedeutet dies, dass die Gefahr gekommen ist, die von einer „Erkältung“ bis zu einer „tödlichen“ reichen kann .

Sicherheitsinspektionen können materielle schädliche Gegenstände erkennen, es ist jedoch schwierig, immaterielle schädliche Emotionen zu erkennen. Diese schädlichen Emotionen wie extremer Hass, Konflikte, Rache, Sozialpsychologie usw. sind wie Zeitbomben, die unschuldige Opfer fordern, sobald sie explodieren.

Daher kann die öffentliche Sicherheit nicht bei der Inspektion von Objekten aufhören.

Die KI-Emotionserkennung ist eine unsichtbare Barriere, die die „Immunität“ der öffentlichen Sicherheit verbessert.

Laut dem Technologiemedium WIRED nutzen Kameras an britischen Bahnhöfen derzeit das Emotionserkennungssystem von Amazon, um die Situation im Bahnhof zu überwachen. Sobald eine Person mit abnormaler Stimmung festgestellt wird, wird das Personal zur weiteren Untersuchung benachrichtigt.

Die Tatsache, dass die Emotionserkennung in europäischen Ländern implementiert werden kann, in denen der Schutz personenbezogener Daten streng ist, reicht möglicherweise aus, um etwas zu erklären.

In diesem Artikel geht es darum, was die KI-Emotionserkennung richtig macht, damit das traditionell konservative Vereinigte Königreich sie akzeptiert. Wo ist die Notwendigkeit?

Berichten zufolge werden intelligente Kameras mit Emotionserkennungsalgorithmen eingesetzt, um die Emotionen von Zugpassagieren zu erkennen und potenzielle Emotionen durch Gesichtsscans vorherzusagen, um ungewöhnliche Verhaltensweisen wie Diebstahl und Eindringlinge zu erkennen.

Der schwierigste Teil dieser Angelegenheit ist nicht die Technologie, sondern wie kann die Gesichtserkennung für die Öffentlichkeit in europäischen Ländern mit den strengsten Gesichtserkennungsvorschriften akzeptiert werden?

Der Einsatz von Gesichtserkennungstechnologie an öffentlichen Orten in Europa hat einen Prozess bedeutender Veränderungen durchlaufen:

Totales Verbot.Seit der Explosion der Deep-Learning-Technologie im Jahr 2017 ist die Gesichtserkennung im Bereich Lebenslauf zu einer der Mainstream-Anwendungen geworden, und Europa hat dies im Dezember 2019 streng reguliert.„Weißbuch zur künstlichen Intelligenz (Entwurf)“, sagte, der Einsatz von Gesichtserkennungstechnologie an öffentlichen Orten werde für drei bis fünf Jahre verboten.

Wiederholt schwingen. Nach der Verabschiedung der strengsten KI- und Datenvorschriften der Geschichte sagten viele Analysten und Technologieexperten, dass diese Beschränkungen den Fortschritt und die Anwendung der Technologie der künstlichen Intelligenz in Europa stark behindert und zu einer Stagnation in der Entwicklung der KI geführt hätten Industrie.Allerdings war die Haltung Europas hierzu immer relativ schwankend. Im Februar 2021 warEU-DatenstrategieAls das Dokument seine Haltung abschwächte, hieß es, dass es die Nutzung der Gesichtserkennungstechnologie an öffentlichen Orten streng einschränken, aber nicht vollständig verbieten würde.

Vorübergehende Gnadenfrist.Am 13. März 2024 hat Europa schließlich den Meilenstein überschrittenGesetz über künstliche Intelligenz, hat seine Haltung gegenüber der Gesichtserkennungstechnologie abgemildert, indem es „die Anwendung zweckloser groß angelegter Überwachung auf der Grundlage sensibler biometrischer Daten (wie Gesichtserkennung)“ verbietet und den vernünftigen Einsatz der Technologie aufgibt.

Warum erfährt die KI-Emotionserkennung eine „Sonderbehandlung“?

Dies bringt uns zum „unmöglichen Dreieck“ der öffentlichen Sicherheit: Kosten, Nutzen und Erfahrung.

Für die öffentliche Sicherheit gilt: „Vorbeugung im Voraus ist besser als Abhilfe im Nachhinein.“ Sobald ein Ereignis mit hohem Risiko eintritt, belaufen sich die Kosten für die „Reparatur“ häufig auf Menschenleben, daher sollte eine strengere vorherige Überwachung eingeführt werden. Im Allgemeinen handelt es sich um die Sicherheitskontrolle.

Bei der Sicherheitsinspektion gibt es jedoch ein „unmögliches Dreieck“, das einen komplexen Kompromiss zwischen Investitionskosten, Sicherheitsvorteilen und öffentlicher Erfahrung erfordert.

Wenn der Sicherheitsüberprüfungsprozess nicht empfindlich genug ist und es zu einer „fehlenden Erkennung“ kommt, haben schädliche „Viren“ die Möglichkeit, dies auszunutzen. Gefährliche Gruppen entwickeln eine „Medikamentenresistenz“ gegen das Sicherheitskontrollsystem, genau wie die erhöhte Resistenz des Virus gegen Drogen, und finden Lücken im Sicherheitskontrollprozess, um dieses zu umgehen.

Wir sind uns aber auch darüber im Klaren, dass die wahllose Einführung von Sicherheitsinspektionen auf Flughafenebene und Kontrollen von Schmuggelware an jedem Ort nicht nur die Verkehrseffizienz und das Reiseerlebnis der Menschen beeinträchtigen, sondern auch eine größere Anzahl von Sicherheitsinspektionspersonal erfordern wird, was hohe Kosten mit sich bringen wird . Kostenaufwand und Grenznutzen sind sehr gering.

Insbesondere in europäischen U-Bahnen, Hochgeschwindigkeitsbahnhöfen und malerischen Orten gab es bisher in der Regel keine Sicherheitskontrollen, was einem „Türöffnen“ für gefährliche Güter und terroristische Bedrohungen gleichkommt. Die Einführung normalisierter Sicherheitsinspektionen von Grund auf erfordert den Einsatz von Sicherheitspersonal, Ausrüstung und anderen Kosten sowie die Aufklärung der Öffentlichkeit über eine Änderung ihrer langjährigen Reisegewohnheiten. Es ist nahezu unmöglich, allgemein akzeptiert zu werden.

In diesem Zusammenhang wird erwartet, dass die Anwendung der KI-Emotionserkennung eine neue Lösung für das „unmögliche Dreieck“ traditioneller Sicherheitsinspektionen finden wird.

KI-Emotionserkennung ist keine neue Technologie. Warum ist sie zu diesem Zeitpunkt zum lebensrettenden Strohhalm für die öffentliche Sicherheit Europas geworden?

Dies beginnt mit mehreren Änderungen:

Die erste Änderung ist die Weiterentwicklung von Algorithmen, die den Sicherheitsvorteil erheblich erhöht hat.

Das in britischen Hochgeschwindigkeitsbahnhöfen eingesetzte Emotionserkennungssystem ist etwas, das Amazon seit vielen Jahren in den Bereichen E-Commerce, medizinische Versorgung, öffentliche Sicherheit, Marketing und anderen Bereichen erforscht.Das Erkennungssystem kann eine Vielzahl von Emotionen erkennen, darunter Glück, Traurigkeit, Wut, Überraschung, Ekel, Ruhe und Verwirrung. Nach der Iteration im Jahr 2023 kann es auch „Angst“ erkennen.

Beispielsweise werden in E-Commerce-Szenarien Filialkameras zur Beurteilung der Emotionen der Verbraucher eingesetzt, um die Produktdarstellung zu optimieren. In persönlichen Unterhaltungsszenarien können intelligente Geräte wie Amazons Alexa die Emotionen der Benutzer rechtzeitig erfassen und erkennen, wenn Benutzer negative Emotionen empfinden wie Wut oder Traurigkeit, um Trost oder Rat zu geben.

Man kann sagen, dass die aktuellen Algorithmen zur Emotionsanalyse und Emotionserkennung recht ausgereift sind und die Genauigkeit und Erkennungspräzision den komplexen Anforderungen der Berücksichtigung von Effizienz, Sicherheit und Erfahrung an öffentlichen Orten gerecht werden kann.

Die zweite Änderung ist die kontinuierliche Weiterentwicklung der digitalen Gesellschaft, wodurch die Kosten für die KI-Emotionserkennung kontrollierbar werden.

Intelligente Städte werden in vielen Ländern und Regionen auf der ganzen Welt ständig verbessert. Intelligente Kameras werden seit vielen Jahren für die städtische Sicherheit eingesetzt, und die aktuellen Technologien und Produkte sind recht ausgereift. Unter anderem können „softwaredefinierte“ Smart-Kameras verschiedene Algorithmen online laden, um vertikale intelligente Anwendungen zu implementieren. Sie können die KI-Emotionserkennung aktualisieren und aktualisieren, ohne Hardware auszutauschen, und verursachen keinen übermäßigen Kostendruck.

Die dritte Änderung besteht darin, dass die Bedenken der Menschen hinsichtlich der öffentlichen Sicherheit und der Privatsphäre in den letzten Jahren zurückgegangen sind und sie daher die Erkennung von Emotionen zunehmend akzeptieren.

Mit den Turbulenzen im politischen und wirtschaftlichen Umfeld der Welt haben die öffentlichen Bedenken hinsichtlich der öffentlichen Sicherheit in vielen Ländern zugenommen, insbesondere in Europa, wo die illegale Einwanderung zugenommen hat und viele Bedrohungen für die öffentliche Sicherheit darstellt.

In diesem Zusammenhang kann die KI-Emotionserkennung nicht nur potenzielle Anzeichen von Spannungen und Konflikten im Voraus erkennen, um durch emotionalen Verlust verursachte Zwischenfälle im Bereich der öffentlichen Sicherheit zu vermeiden, sondern ist auch nicht so unangenehm wie die Offenlegung der Privatsphäre im Gesicht.

Dies liegt daran, dass die durch die Emotionserkennung gesammelten Daten nicht „stark identifizierbar“ sind.

Wie es im „Recht auf Privatsphäre“ heißt, ist Privatsphäre „das Recht, in Ruhe gelassen zu werden“. Im Vergleich zur Gesichtserkennung mit „starker Erkennung“Die Erkennung von KI-Emotionen an öffentlichen Orten wird die Öffentlichkeit weder stören noch personenbezogene Daten einbeziehen, bevor die Krise aufgedeckt wird. Das heißt, es ist nicht möglich, natürliche Personen anhand von Emotionen eindeutig zu identifizieren und zu authentifizieren, und es wird nicht bekannt sein, wer Ihr Nachname ist. Das mindert das Gefühl der Ausspionierung in der Öffentlichkeit erheblich.

Aus dieser Perspektive hat die KI-Emotionserkennung ein gutes Gleichgewicht in Bezug auf Kosten, Nutzen und Erfahrung erreicht und sollte zusätzlich zu herkömmlichen Sicherheitsinspektionen zu einem unsichtbaren Hindernis für die öffentliche Sicherheit werden.

Die Erkennung von KI-Emotionen und die Verhinderung bösartiger extremer Sicherheitsvorfälle werden der gesamten Gesellschaft definitiv mehr Nutzen als Schaden bringen. Wann können wir es also tun?

Ehrlich gesagt funktionieren die aktuellen intelligenten Sicherheitssysteme in großen und mittelgroßen Städten Chinas bereits sehr gut. Es ist nicht schwierig, Algorithmen zur Emotionserkennung zu implementieren.Der Weg zur Lokalisierung von Algorithmen wird noch eine Weile dauern.

Das größte Hindernis besteht darin, dass die Datensätze nicht groß genug und nicht gut genug sind.

Ich besuchte einen Lehrer einer Universität in Shandong, der Deep-Learning-Technologie nutzte, um Algorithmen zur Mikroausdruckserkennung zu entwickeln. Mikroausdrücke zeichnen sich durch eine sehr kurze Dauer, kleine Änderungen der Bewegungsamplitude und Schwierigkeiten beim Verbergen und Unterdrücken aus und eignen sich daher sehr gut zur Emotionserkennung potenziell gefährlicher Personen.

Mikroexpressionen erfordern psychologische Experimente, um sie zu sammeln und dann von Computern zu analysieren und zu verarbeiten. Es ist notwendig, den Probanden zunächst einige Reize zu zeigen, von denen Psychologen gezeigt haben, dass sie die Produktion von Mikroausdrücken induzieren, dann mit einer Hochgeschwindigkeitskamera das Gesicht des Probanden zu betrachten und den Computer die Bilder Bild für Bild speichern zu lassen. Nach dem Sammeln der Daten ist es notwendig, sie mit Emotionsbezeichnungen und räumlich-zeitlichen Domänenmerkmalen zu kennzeichnen, bei denen es sich um den Startmoment, den Endmoment und den Höhepunktmoment des Ausdrucks handelt.

Der Lehrer erwähnte, dass es vor der Einrichtung der MMEW-Datenbank an einigen besonders großen öffentlichen Datenbanken für die Mikroexpressionsforschung mangelte. Die größte Datenbank enthielt nur 247 Proben und die Bildauflösung war nicht hoch.


Es erfordert sowohl psychologische Experimente als auch Computertechnik. Wenn ein Mikroexpressionsdatensatz so schwierig ist, warum sollte er dann selbst erstellt werden?

Wir wissen, dass der emotionale Ausdruck von Kultur, sozialem Leben und anderen Hintergründen beeinflusst wird. Die meisten internationalen emotionalen Bilder basieren auf Daten von ausländischen Gesichtern, die möglicherweise nicht sehr genau sind, wenn es darum geht, den emotionalen Zustand, die Absicht und das Verhalten chinesischer Gesichter zu identifizieren. Daher muss die tatsächliche Anwendung der KI-Emotionserkennung im Bereich der öffentlichen Sicherheit noch mit der soliden Konstruktion hochwertiger inländischer Datensätze beginnen.

Eine andere Frage ist: Wer wird ihn mit dem Algorithmus verkaufen?

Genauer gesagt: Wer stellt die Rechenleistung und eine Reihe unterstützender Dienste bereit? Die Emotionserkennung ist ein komplexer Prozess, der eine hohe Rechenleistung erfordert, um große Datenmengen schnell zu analysieren und die Ergebnisse der Emotionserkennung in Echtzeit zurückzumelden, was eine extrem hohe Rechenleistung erfordert. Darüber hinaus ist KI eine sich ständig weiterentwickelnde Technologie, und Emotionserkennungsmodelle erfordern kontinuierliches Lernen und Optimierung, um die Erkennungsgenauigkeit und Generalisierungsfähigkeiten zu verbessern. Nehmen Sie als Beispiel das an einem britischen Hochgeschwindigkeitsbahnhof implementierte Rekognition-System. Es handelt sich um einen der von Amazon AWS eingeführten Cloud-Dienste, der Lernen, Analysen und Funktionsverbesserungen in der Cloud durchführt.

Da es sich in China um öffentliche Informationsdaten handelt, müssen diese privatisiert und lokal bereitgestellt werden. Letztendlich liegt die zentrale Wettbewerbsfähigkeit in der Algorithmustechnologie und den ToB-Servicefunktionen. Daher werden inländische CV-Algorithmusunternehmen auf diesem Markt wettbewerbsfähiger sein als Cloud-Anbieter. Die Lösung des Problems der Kosten für Rechenleistung und der menschlichen Effizienz von Diensten ist jedoch ein seit langem bestehendes Problem für Algorithmusunternehmen, das ausgefeiltere und vernünftigere Anforderungen erfordert Geschäftsdesign.

Die neunstöckige Plattform erhebt sich vom Erdboden. Obwohl der Weg zur Lokalisierung der KI-Emotionserkennung noch Stück für Stück von der Daten-, Algorithmus-, Geschäfts- und anderen Ebene aus gefestigt werden muss, wird mithilfe von Technologie die „Immunität“ der öffentlichen Sicherheit verbessert, schlimme Sicherheitsunfälle vermieden und ein Gleichgewicht zwischen diesen erreicht Kosten, Nutzen und Erfahrung sollten nach und nach zum Konsens und Ziel der gesamten Gesellschaft werden.

Der Mensch ist das Ziel und die Technologie ist das Mittel.

Technologie, die das Recht der Menschen auf Leben schützt, sollte das Recht auf Entwicklung erhalten, auch in Europa, wo neue Technologien äußerst streng sind. Dies ist möglicherweise die größte Offenbarung, die uns die Implementierung der KI-Emotionserkennung bringt.