nouvelles

L’IA prédit les convictions politiques des visages inexpressifs avec une précision étonnante !Les recherches de Stanford apparaissent dans les meilleures revues internationales

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nouveau rapport de sagesse

Editeur : Taozi

[Introduction à la nouvelle sagesse] La reconnaissance faciale IA a été complètement intégrée dans la vie quotidienne de chacun. Cependant, une étude de Stanford a révélé que l’IA peut identifier les tendances politiques d’une personne à partir d’un visage inexpressif avec une précision étonnante.

Aujourd’hui, les scientifiques ont montré que l’IA peut prédire l’orientation politique d’une personne à partir de son visage avec une précision étonnante.

De plus, même un visage qui ne « fait pas preuve de timidité » peut être reconnu avec précision.


De cette façon, toutes les petites pensées des êtres humains du futur doivent être maîtrisées. Si elles sont écrites sur leurs visages, elles seront instantanément vues par l'IA.

Cette étude de l'équipe de Stanford a été publiée dans la revue American Psychologist.


Adresse papier : https://awspntest.apa.org/fulltext/2024-65164-001.pdf

Comme vous pouvez l'imaginer, cette découverte soulève de sérieuses préoccupations en matière de confidentialité, notamment en ce qui concerne l'utilisation de la reconnaissance faciale sans le consentement d'un individu.

Michal Kosinski, l'auteur du journal, a déclaré : « L'expérience de grandir derrière le rideau de fer m'a rendu profondément conscient des risques de la surveillance et du choix des élites d'ignorer les faits gênants pour des raisons économiques ou idéologiques. »

Même les visages sans expression peuvent être compris par l'IA

En matière de reconnaissance faciale, tout le monde la connaît peut-être.

L'IA identifie et authentifie les individus en analysant des modèles basés sur les caractéristiques du visage.

Le cœur de la technologie derrière cela réside dans le fait que l'algorithme détecte les visages dans les images/vidéos, puis mesure divers aspects du visage, tels que la distance entre les yeux, la forme de la mâchoire et le contour des pommettes.


Ces mesures sont converties en une formule mathématique, ou signature faciale.

La signature peut être comparée à une base de données de visages connus pour trouver une correspondance.

Ou utilisé pour diverses applications, notamment les systèmes de sécurité, le déverrouillage de votre téléphone, le marquage des photos d'amis sur les plateformes de réseaux sociaux, et bien plus encore.

Dans l’étude de Stanford, les auteurs se sont concentrés sur l’examen des nouvelles technologies et sur l’exposition de leurs risques pour la vie privée.

Dans des études antérieures, ils ont montré comment Meta (Facebook) vend ou échange des données, révélant ainsi les opinions politiques, l'orientation sexuelle, les traits de personnalité et d'autres caractéristiques privées des utilisateurs.


Et la technologie de reconnaissance faciale est largement utilisée pour détecter les opinions politiques et l’orientation sexuelle à partir des photos de profil des réseaux sociaux.

Cependant, les auteurs soulignent que les études antérieures n’ont pas pris en compte les variables susceptibles d’affecter l’exactitude de leurs conclusions.

Des choses comme les expressions faciales, la direction de la tête, si vous portez du maquillage ou des bijoux.

Ainsi, dans la nouvelle étude, les auteurs ont cherché à analyser l’impact des traits du visage seuls dans la prévision des tendances politiques, fournissant ainsi une image plus claire des capacités et des risques de la technologie de reconnaissance faciale.


Les coefficients de prédiction des humains et de l’IA sont comparables

Pour atteindre cet objectif, ils ont recruté 591 participants dans une grande université privée et ont soigneusement contrôlé l'environnement et les conditions dans lesquels la photo du visage de chaque participant était prise.

Les participants portaient des T-shirts noirs, utilisaient des lingettes pour le visage pour enlever tout maquillage et avaient les cheveux soigneusement attachés.

Ils étaient assis dans une position fixe et leurs visages ont été photographiés dans une pièce bien éclairée sur un fond neutre pour garantir la cohérence de toutes les images.


Après avoir pris la photo, les chercheurs l'ont traitée à l'aide d'un algorithme de reconnaissance faciale, en utilisant spécifiquement VGGFace2 dans l'architecture ResNet-50-256D.

Cet algorithme extrait des vecteurs numériques – appelés descripteurs faciaux – de l’image.

Ces descripteurs codent les traits du visage sous une forme qui peut être analysée par des ordinateurs et sont utilisés pour prédire les tendances politiques des participants grâce à un modèle qui mappe ces descripteurs sur une échelle de tendance politique.

Il a été constaté que les algorithmes de reconnaissance faciale peuvent prédire les tendances politiques avec un coefficient de corrélation de 0,22.


La corrélation, bien que modeste, était statistiquement significative, ce qui suggère que certains traits du visage stables peuvent être associés à des tendances politiques. Cette association était indépendante d'autres facteurs démographiques tels que l'âge, le sexe et la race.

Ensuite, Kosinski et ses collègues ont mené une deuxième étude.


Ils ont remplacé l’algorithme par 1 026 évaluateurs humains pour évaluer si les gens pouvaient également prédire leurs tendances politiques à partir d’images faciales neutres.

Les chercheurs leur ont montré des images faciales standardisées collectées lors de la première étude. Chaque évaluateur a été invité à évaluer les tendances politiques des individus figurant sur les photos.

Les évaluateurs ont effectué plus de 5 000 évaluations et les résultats ont été analysés pour déterminer la corrélation entre leurs évaluations perçues de l'orientation politique et les orientations réelles déclarées par les participants.

Comme pour l'algorithme, les évaluateurs humains étaient capables de prédire les tendances politiques, avec un coefficient de corrélation de 0,21, comparable aux performances de l'algorithme.


"À ma grande surprise, les algorithmes et les humains ont été capables de prédire l'orientation politique à partir d'images soigneusement standardisées de visages sans expression", a déclaré Kosinski. "Cela suggère un lien entre les traits du visage stables et l'orientation politique".

Dans une troisième étude, les chercheurs ont étendu l’examen du pouvoir prédictif de la reconnaissance faciale à différents contextes en demandant au modèle de reconnaître des images de politiciens.


L'échantillon comprend 3 401 images de profil d'hommes politiques des deux chambres des corps législatifs de trois pays : les États-Unis, le Royaume-Uni et le Canada.

Les résultats montrent que les modèles de reconnaissance faciale sont effectivement capables de prédire les tendances politiques à partir d’images d’hommes politiques, avec un coefficient de corrélation de 0,13 pour la précision médiane.

Cette précision, bien que peu élevée, est néanmoins statistiquement significative, comme le démontrent les images contrôlées en laboratoire. Certains traits du visage stables qui prédisent les tendances politiques peuvent également être identifiés dans un ensemble plus diversifié d’images réelles.


recherche multi-domaines

En fait, une étude de Nature datant de 2021 a souligné que la technologie de reconnaissance faciale peut prédire correctement l'orientation politique d'une personne dans 72 % des cas.


Adresse papier : https://www.nature.com/articles/s41598-020-79310-1

L'expérience a révélé que la technologie de l'IA était meilleure que le hasard (50 %), le jugement humain (55 %) ou les questionnaires de personnalité (66 %).


Dans une autre étude de 2023, un algorithme d'apprentissage profond a également été utilisé pour prédire les tendances politiques d'une personne à partir de la reconnaissance faciale, avec une précision de prédiction pouvant atteindre 61 %.


Cependant, aux yeux des internautes, tout système d'IA prétendant être capable de lire les émotions des gens ou d'autres caractéristiques (telles que les tendances politiques) à partir des expressions faciales est une arnaque.

Il n’y a aucune base scientifique ici, donc il n’existe pas de « bonnes données » qui puissent être utilisées pour entraîner l’IA à prédire ces caractéristiques.


Auparavant, un rapport du WSJ remettait également en question l'utilisation d'expressions faciales stéréotypées par l'IA pour entraîner des algorithmes, ce qui serait inévitablement trompeur.


Que penses-tu de cela?

Les références:

https://www.reddit.com/r/singularity/comments/1dycnzq/ai_can_predict_politique_beliefs_from/