Nachricht

KI sagt aus ausdruckslosen Gesichtern politische Überzeugungen mit erstaunlicher Genauigkeit voraus!Stanford-Forschung erscheint in führenden internationalen Fachzeitschriften

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Neuer Weisheitsbericht

Herausgeber: Taozi

[Einführung in die neue Weisheit] Die KI-Gesichtserkennung ist vollständig in das tägliche Leben eines jeden integriert. Eine Studie aus Stanford ergab jedoch, dass KI die politischen Neigungen einer Person anhand eines ausdruckslosen Gesichts mit erstaunlicher Genauigkeit erkennen kann.

Jetzt haben Wissenschaftler gezeigt, dass KI die politische Ausrichtung einer Person anhand ihres Gesichts mit erstaunlicher Genauigkeit vorhersagen kann.

Darüber hinaus kann auch ein Gesicht, das keine „Ängstlichkeit zeigt“, genau erkannt werden.


Auf diese Weise müssen alle kleinen Gedanken der Menschen in der Zukunft zurückgehalten werden. Wenn sie ihnen ins Gesicht geschrieben stehen, werden sie von der KI sofort gesehen.

Diese Studie des Stanford-Teams wurde in der Zeitschrift American Psychologist veröffentlicht.


Papieradresse: https://awspntest.apa.org/fulltext/2024-65164-001.pdf

Wie Sie sich vorstellen können, wirft diese Entdeckung ernsthafte Datenschutzbedenken auf, insbesondere im Hinblick auf die Verwendung der Gesichtserkennung ohne die Zustimmung einer Person.

Michal Kosinski, der Autor des Papiers, sagte: „Die Erfahrung, hinter dem Eisernen Vorhang aufzuwachsen, hat mir die Risiken der Überwachung und die Entscheidung der Eliten, unbequeme Fakten aus wirtschaftlichen oder ideologischen Gründen zu ignorieren, zutiefst bewusst gemacht.“

Selbst ausdruckslose Gesichter können von KI verstanden werden

Wenn es um Gesichtserkennung geht, dürfte damit jeder vertraut sein.

KI identifiziert und authentifiziert Personen durch die Analyse von Mustern anhand von Gesichtsmerkmalen.

Der Kern der Technologie dahinter besteht darin, dass der Algorithmus Gesichter in Bildern/Videos erkennt und dann verschiedene Aspekte des Gesichts misst – etwa den Abstand zwischen den Augen, die Form der Kieferpartie und die Kontur der Wangenknochen.


Diese Messungen werden in eine mathematische Formel oder Gesichtssignatur umgewandelt.

Die Signatur kann mit einer Datenbank bekannter Gesichter verglichen werden, um eine Übereinstimmung zu finden.

Oder für eine Vielzahl von Anwendungen verwendet, darunter Sicherheitssysteme, das Entsperren Ihres Telefons, das Markieren von Fotos von Freunden auf Social-Media-Plattformen und mehr.

In der Stanford-Studie konzentrierten sich die Autoren darauf, neue Technologien zu untersuchen und ihre Risiken für die Privatsphäre aufzudecken.

In früheren Studien haben sie gezeigt, wie Meta (Facebook) Daten verkauft oder austauscht und dabei politische Ansichten, sexuelle Orientierung, Persönlichkeitsmerkmale und andere private Merkmale der Nutzer offenlegt.


Und Gesichtserkennungstechnologie wird häufig verwendet, um politische Ansichten und sexuelle Orientierung anhand von Profilbildern in sozialen Medien zu erkennen.

Allerdings weisen die Autoren darauf hin, dass frühere Studien keine Variablen kontrolliert haben, die die Genauigkeit ihrer Schlussfolgerungen beeinflussen könnten.

Dinge wie Gesichtsausdruck, Kopfrichtung, ob Sie Make-up oder Schmuck tragen.

In der neuen Studie wollten die Autoren daher allein den Einfluss von Gesichtsmerkmalen auf die Vorhersage politischer Neigungen analysieren und so ein klareres Bild der Fähigkeiten und Risiken der Gesichtserkennungstechnologie liefern.


Die Vorhersagekoeffizienten von Menschen und KI sind vergleichbar

Um dieses Ziel zu erreichen, rekrutierten sie 591 Teilnehmer einer großen Privatuniversität und kontrollierten sorgfältig die Umgebung und Bedingungen, unter denen das Gesichtsfoto jedes Teilnehmers aufgenommen wurde.

Die Teilnehmer trugen schwarze T-Shirts, entfernten Make-up mit Gesichtstüchern und hatten ihre Haare ordentlich zusammengebunden.

Sie saßen in einer festen Position und ihre Gesichter wurden in einem gut beleuchteten Raum vor einem neutralen Hintergrund fotografiert, um die Konsistenz aller Bilder sicherzustellen.


Nach der Aufnahme des Fotos verarbeiteten die Forscher es mithilfe eines Gesichtserkennungsalgorithmus, insbesondere mithilfe von VGGFace2 in der ResNet-50-256D-Architektur.

Dieser Algorithmus extrahiert numerische Vektoren – sogenannte Gesichtsdeskriptoren – aus dem Bild.

Diese Deskriptoren kodieren Gesichtsmerkmale in einer Form, die von Computern analysiert werden kann und zur Vorhersage der politischen Neigungen der Teilnehmer mithilfe eines Modells verwendet wird, das diese Deskriptoren auf einer Skala für politische Neigungen abbildet.

Es wurde festgestellt, dass Gesichtserkennungsalgorithmen politische Neigungen mit einem Korrelationskoeffizienten von 0,22 vorhersagen können.


Die Korrelation war zwar bescheiden, aber statistisch signifikant, was darauf hindeutet, dass bestimmte stabile Gesichtszüge möglicherweise mit politischen Neigungen verbunden sind. Dieser Zusammenhang war unabhängig von anderen demografischen Faktoren wie Alter, Geschlecht und Rasse.

Als nächstes führten Kosinski und Kollegen eine zweite Studie durch.


Sie ersetzten den Algorithmus durch 1.026 menschliche Bewerter, um zu beurteilen, ob Menschen politische Neigungen auch anhand neutraler Gesichtsbilder vorhersagen konnten.

Die Forscher zeigten ihnen standardisierte Gesichtsbilder, die in der ersten Studie gesammelt wurden. Jeder Bewerter wurde gebeten, die politische Einstellung der Personen auf den Fotos zu bewerten.

Die Bewerter führten mehr als 5.000 Bewertungen durch und die Ergebnisse wurden analysiert, um die Korrelation zwischen ihren wahrgenommenen Bewertungen der politischen Orientierung und den von den Teilnehmern gemeldeten tatsächlichen Orientierungen zu ermitteln.

Wie der Algorithmus waren menschliche Bewerter in der Lage, politische Neigungen mit einem Korrelationskoeffizienten von 0,21 vorherzusagen, was mit der Leistung des Algorithmus vergleichbar war.


„Zu meiner Überraschung konnten sowohl Algorithmen als auch Menschen die politische Orientierung anhand sorgfältig standardisierter Bilder ausdrucksloser Gesichter vorhersagen“, sagte Kosinski. „Dies deutet auf einen Zusammenhang zwischen stabilen Gesichtszügen und politischer Orientierung hin.“

In einer dritten Studie weiteten die Forscher die Untersuchung der Vorhersagekraft der Gesichtserkennung auf verschiedene Kontexte aus, indem sie das Modell aufforderten, Bilder von Politikern zu erkennen.


Die Stichprobe umfasst 3.401 Profilbilder von Politikern beider Kammern von gesetzgebenden Körperschaften in drei Ländern: den Vereinigten Staaten, dem Vereinigten Königreich und Kanada.

Die Ergebnisse zeigen, dass Gesichtserkennungsmodelle tatsächlich in der Lage sind, politische Neigungen aus Bildern von Politikern vorherzusagen, mit einem Korrelationskoeffizienten von 0,13 für die mittlere Genauigkeit.

Diese Genauigkeit ist zwar nicht hoch, aber dennoch statistisch signifikant, was in kontrollierten Laborbildern nachgewiesen wird. Einige stabile Gesichtszüge, die politische Neigungen vorhersagen, können auch in einer vielfältigeren Reihe realer Bilder identifiziert werden.


Mehrfeldforschung

Tatsächlich wies bereits eine Nature-Studie aus dem Jahr 2021 darauf hin, dass Gesichtserkennungstechnologie in 72 % der Fälle die politische Ausrichtung einer Person korrekt vorhersagen kann.


Papieradresse: https://www.nature.com/articles/s41598-020-79310-1

Das Experiment ergab, dass KI-Technologie besser war als Zufall (50 %), menschliches Urteilsvermögen (55 %) oder Persönlichkeitsfragebögen (66 %).


In einer weiteren Studie aus dem Jahr 2023 wurde außerdem ein Deep-Learning-Algorithmus verwendet, um die politischen Neigungen einer Person anhand der Gesichtserkennung vorherzusagen, und zwar mit einer Vorhersagegenauigkeit von bis zu 61 %.


In den Augen der Internetnutzer ist jedoch jedes KI-System, das behauptet, aus dem Gesichtsausdruck von Menschen Emotionen oder andere Merkmale (z. B. politische Neigungen) ablesen zu können, ein Betrug.

Hier gibt es keine wissenschaftliche Grundlage, es gibt also keine „guten Daten“, mit denen man KI trainieren kann, diese Eigenschaften vorherzusagen.


Zuvor hatte auch ein WSJ-Bericht eine solche KI in Frage gestellt, da die Verwendung stereotyper Gesichtsausdrücke zum Trainieren von Algorithmen unweigerlich irreführend sei.


Was denkst du darüber?

Verweise:

https://www.reddit.com/r/singularity/comments/1dycnzq/ai_can_predict_political_beliefs_from/