noticias

¡La IA predice creencias políticas a partir de rostros inexpresivos con una precisión asombrosa!La investigación de Stanford aparece en las principales revistas internacionales

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nuevo informe de sabiduría

Editor: Taozi

[Introducción a la Nueva Sabiduría] El reconocimiento facial con IA se ha integrado completamente en la vida diaria de todos. Sin embargo, un estudio de Stanford descubrió que la IA puede identificar las inclinaciones políticas de una persona a partir de un rostro inexpresivo con una precisión asombrosa.

Ahora, los científicos han demostrado que la IA puede predecir la orientación política de una persona a partir de su rostro con una precisión asombrosa.

No sólo eso, incluso una cara que no "muestra timidez" puede reconocerse con precisión.


De esta manera, todos los pequeños pensamientos de los seres humanos en el futuro deben ser restringidos. Si están escritos en sus rostros, la IA los verá instantáneamente.

Este estudio del equipo de Stanford ha sido publicado en la revista American Psychologist.


Dirección del artículo: https://awspntest.apa.org/fulltext/2024-65164-001.pdf

Como puede imaginar, este descubrimiento plantea serias preocupaciones sobre la privacidad, particularmente en relación con el uso del reconocimiento facial sin el consentimiento de un individuo.

Michal Kosinski, autor del artículo, dijo: "La experiencia de crecer detrás de la Cortina de Hierro me hizo profundamente consciente de los riesgos de la vigilancia y de la elección de las elites de ignorar hechos inconvenientes por razones económicas o ideológicas".

La IA puede entender incluso los rostros inexpresivos

Cuando se trata de reconocimiento facial, es posible que todo el mundo esté familiarizado con él.

La IA identifica y autentica a las personas mediante el análisis de patrones basados ​​en rasgos faciales.

El núcleo de la tecnología detrás de esto es que el algoritmo detecta rostros en imágenes/videos y luego mide varios aspectos del rostro, como la distancia entre los ojos, la forma de la mandíbula y el contorno de los pómulos.


Estas medidas se convierten en una fórmula matemática o firma facial.

La firma se puede comparar con una base de datos de rostros conocidos para encontrar una coincidencia.

O se usa para una variedad de aplicaciones, incluidos sistemas de seguridad, desbloquear su teléfono, etiquetar fotos de amigos en plataformas de redes sociales y más.

En el estudio de Stanford, los autores se centraron en examinar las nuevas tecnologías y exponer sus riesgos para la privacidad.

En estudios anteriores, han demostrado cómo Meta (Facebook) vende o intercambia datos, exponiendo las opiniones políticas, la orientación sexual, los rasgos de personalidad y otras características privadas de los usuarios.


Y la tecnología de reconocimiento facial se usa ampliamente para detectar opiniones políticas y orientación sexual a partir de imágenes de perfil de redes sociales.

Sin embargo, los autores señalan que estudios anteriores no han controlado las variables que puedan afectar la precisión de sus conclusiones.

Cosas como expresiones faciales, dirección de la cabeza, si estás usando maquillaje o joyas.

Entonces, en el nuevo estudio, los autores pretendían analizar el impacto de los rasgos faciales por sí solos en la predicción de inclinaciones políticas, proporcionando una imagen más clara de las capacidades y riesgos de la tecnología de reconocimiento facial.


Los coeficientes de predicción de los humanos y de la IA son comparables

Para lograr este objetivo, reclutaron a 591 participantes de una importante universidad privada y controlaron cuidadosamente el entorno y las condiciones en las que se tomó la fotografía facial de cada participante.

Los participantes vestían camisetas negras, usaban toallitas faciales para quitarse el maquillaje y tenían el cabello cuidadosamente recogido.

Se sentaron en una posición fija y se fotografiaron sus rostros en una habitación bien iluminada sobre un fondo neutro para garantizar la coherencia en todas las imágenes.


Después de tomar la foto, los investigadores la procesaron utilizando un algoritmo de reconocimiento facial, específicamente usando VGGFace2 en la arquitectura ResNet-50-256D.

Este algoritmo extrae vectores numéricos, llamados descriptores faciales, de la imagen.

Estos descriptores codifican rasgos faciales en una forma que puede ser analizada por computadoras y se utilizan para predecir las inclinaciones políticas de los participantes a través de un modelo que asigna estos descriptores a una escala de inclinación política.

Se descubrió que los algoritmos de reconocimiento facial pueden predecir inclinaciones políticas con un coeficiente de correlación de 0,22.


La correlación, aunque modesta, fue estadísticamente significativa, lo que sugiere que ciertos rasgos faciales estables pueden estar asociados con inclinaciones políticas. Esta asociación fue independiente de otros factores demográficos como la edad, el sexo y la raza.

A continuación, Kosinski y sus colegas realizaron un segundo estudio.


Reemplazaron el algoritmo con 1.026 evaluadores humanos para evaluar si las personas también podían predecir inclinaciones políticas a partir de imágenes faciales neutrales.

Los investigadores les mostraron imágenes faciales estandarizadas recopiladas en el primer estudio. A cada evaluador se le pidió que calificara las inclinaciones políticas de las personas en las fotografías.

Los evaluadores completaron más de 5.000 evaluaciones y los resultados se analizaron para determinar la correlación entre sus calificaciones percibidas de orientación política y las orientaciones reales informadas por los participantes.

Al igual que el algoritmo, los evaluadores humanos pudieron predecir inclinaciones políticas, con un coeficiente de correlación de 0,21, comparable al rendimiento del algoritmo.


"Para mi sorpresa, tanto los algoritmos como los humanos pudieron predecir la orientación política a partir de imágenes cuidadosamente estandarizadas de rostros inexpresivos", dijo Kosinski. "Esto sugiere un vínculo entre rasgos faciales estables y la orientación política".

En un tercer estudio, los investigadores ampliaron el examen del poder predictivo del reconocimiento facial a diferentes contextos pidiendo al modelo que reconociera imágenes de políticos.


La muestra incluye 3.401 imágenes de perfil de políticos de ambas cámaras de los órganos legislativos de tres países: Estados Unidos, Reino Unido y Canadá.

Los resultados muestran que los modelos de reconocimiento facial son capaces de predecir inclinaciones políticas a partir de imágenes de políticos, con un coeficiente de correlación de 0,13 para una precisión media.

Esta precisión, aunque no es alta, sigue siendo estadísticamente significativa, como se demuestra en imágenes de laboratorio controladas. Algunos rasgos faciales estables que predicen inclinaciones políticas también pueden identificarse en un conjunto más diverso de imágenes de la vida real.


investigación multicampo

De hecho, un estudio de Nature de 2021 señaló que la tecnología de reconocimiento facial puede predecir correctamente la orientación política de una persona el 72% de las veces.


Dirección del artículo: https://www.nature.com/articles/s41598-020-79310-1

El experimento encontró que la tecnología de IA era mejor que el azar (50%), el juicio humano (55%) o los cuestionarios de personalidad (66%).


En otro estudio de 2023, también se utilizó un algoritmo de aprendizaje profundo para predecir las inclinaciones políticas de una persona a partir del reconocimiento facial, con una precisión de predicción de hasta el 61%.


Sin embargo, a los ojos de los internautas, todo sistema de inteligencia artificial que afirma ser capaz de leer las emociones de las personas u otras características (como las inclinaciones políticas) a partir de las expresiones faciales es una estafa.

No existe una base científica aquí, por lo que no hay "buenos datos" que puedan usarse para entrenar a la IA para predecir estas características.


Anteriormente, un informe del WSJ también cuestionó que el uso de expresiones faciales estereotipadas por parte de la IA para entrenar algoritmos sería inevitablemente engañoso.


¿Qué piensas sobre esto?

Referencias:

https://www.reddit.com/r/singularity/comments/1dycnzq/ai_can_predict_political_beliefs_from/