notizia

L'intelligenza artificiale prevede convinzioni politiche da volti inespressivi con sorprendente precisione!La ricerca di Stanford appare nelle migliori riviste internazionali

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nuovo rapporto sulla saggezza

Editore: Taozi

[Introduzione alla Nuova Saggezza] Il riconoscimento facciale AI è stato completamente integrato nella vita quotidiana di tutti. Tuttavia, uno studio di Stanford ha scoperto che l’intelligenza artificiale può identificare le inclinazioni politiche di una persona da un volto inespressivo con sorprendente precisione.

Ora, gli scienziati hanno dimostrato che l’intelligenza artificiale può prevedere l’orientamento politico di una persona dal suo volto con sorprendente precisione.

Non solo, anche un volto che non “mostra timidezza” può essere riconosciuto con precisione.


In questo modo, tutti i piccoli pensieri degli esseri umani in futuro dovranno essere frenati. Se saranno scritti sui loro volti, verranno immediatamente visti dall’intelligenza artificiale.

Questo studio del team di Stanford è stato pubblicato sulla rivista American Psychologist.


Indirizzo del documento: https://awspntest.apa.org/fulltext/2024-65164-001.pdf

Come puoi immaginare, questa scoperta solleva seri problemi di privacy, in particolare per quanto riguarda l'uso del riconoscimento facciale senza il consenso di un individuo.

Michal Kosinski, l'autore dell'articolo, ha affermato: "L'esperienza di crescere dietro la cortina di ferro mi ha reso profondamente consapevole dei rischi della sorveglianza e della scelta delle élite di ignorare fatti scomodi per ragioni economiche o ideologiche".

Anche i volti inespressivi possono essere compresi dall’intelligenza artificiale

Quando si parla di riconoscimento facciale, forse tutti lo conoscono.

L’intelligenza artificiale identifica e autentica gli individui analizzando modelli basati sulle caratteristiche facciali.

Il nucleo della tecnologia alla base è che l'algoritmo rileva i volti nelle immagini/video e quindi misura vari aspetti del viso, come la distanza tra gli occhi, la forma della mascella e il contorno degli zigomi.


Queste misurazioni vengono convertite in una formula matematica o firma facciale.

La firma può essere confrontata con un database di volti noti per trovare una corrispondenza.

Oppure utilizzato per una varietà di applicazioni, inclusi sistemi di sicurezza, sblocco del telefono, taggatura delle foto degli amici su piattaforme di social media e altro ancora.

Nello studio di Stanford, gli autori si sono concentrati sull’esame delle nuove tecnologie e sull’esposizione dei rischi per la privacy.

In studi precedenti, hanno dimostrato come Meta (Facebook) vende o scambia dati, esponendo le opinioni politiche, l'orientamento sessuale, i tratti della personalità e altre caratteristiche private degli utenti.


E la tecnologia di riconoscimento facciale è ampiamente utilizzata per rilevare opinioni politiche e orientamento sessuale dalle immagini dei profili dei social media.

Tuttavia, gli autori sottolineano che gli studi precedenti non hanno controllato le variabili che potrebbero influenzare l’accuratezza delle loro conclusioni.

Cose come le espressioni facciali, la direzione della testa, se indossi trucco o gioielli.

Pertanto, nel nuovo studio, gli autori miravano ad analizzare l’impatto delle sole caratteristiche facciali nel prevedere le tendenze politiche, fornendo un quadro più chiaro delle capacità e dei rischi della tecnologia di riconoscimento facciale.


I coefficienti di previsione degli esseri umani e dell’intelligenza artificiale sono comparabili

Per raggiungere questo obiettivo, hanno reclutato 591 partecipanti da un'importante università privata e hanno controllato attentamente l'ambiente e le condizioni in cui è stata scattata la foto del viso di ciascun partecipante.

I partecipanti indossavano magliette nere, usavano salviette per il viso per rimuovere il trucco e avevano i capelli ben raccolti.

Erano seduti in una posizione fissa e i loro volti sono stati fotografati in una stanza ben illuminata su uno sfondo neutro per garantire la coerenza di tutte le immagini.


Dopo aver scattato la foto, i ricercatori l'hanno elaborata utilizzando un algoritmo di riconoscimento facciale, in particolare utilizzando VGGFace2 nell'architettura ResNet-50-256D.

Questo algoritmo estrae vettori numerici - chiamati descrittori facciali - dall'immagine.

Questi descrittori codificano le caratteristiche facciali in una forma che può essere analizzata dai computer e vengono utilizzati per prevedere le inclinazioni politiche dei partecipanti attraverso un modello che mappa questi descrittori su una scala di inclinazione politica.

È stato scoperto che gli algoritmi di riconoscimento facciale possono prevedere le tendenze politiche con un coefficiente di correlazione di 0,22.


La correlazione, sebbene modesta, era statisticamente significativa, suggerendo che alcune caratteristiche facciali stabili potrebbero essere associate a tendenze politiche. Questa associazione era indipendente da altri fattori demografici come età, sesso e razza.

Successivamente, Kosinski e colleghi hanno condotto un secondo studio.


Hanno sostituito l’algoritmo con 1.026 valutatori umani per valutare se le persone potessero anche prevedere le tendenze politiche da immagini facciali neutre.

I ricercatori hanno mostrato loro immagini facciali standardizzate raccolte nel primo studio. A ciascun valutatore è stato chiesto di valutare le inclinazioni politiche degli individui nelle foto.

I valutatori hanno completato più di 5.000 valutazioni e i risultati sono stati analizzati per determinare la correlazione tra le valutazioni percepite dell'orientamento politico e gli orientamenti effettivi riportati dai partecipanti.

Come l’algoritmo, i valutatori umani sono stati in grado di prevedere le tendenze politiche, con un coefficiente di correlazione di 0,21, paragonabile alla performance dell’algoritmo.


"Con mia sorpresa, sia gli algoritmi che gli esseri umani sono stati in grado di prevedere l'orientamento politico da immagini attentamente standardizzate di volti inespressivi", ha detto Kosinski "Ciò suggerisce un legame tra caratteristiche facciali stabili e orientamento politico".

In un terzo studio, i ricercatori hanno esteso l’esame del potere predittivo del riconoscimento facciale a diversi contesti chiedendo al modello di riconoscere le immagini dei politici.


Il campione comprende 3.401 immagini dei profili di politici di entrambe le camere degli organi legislativi in ​​tre paesi: Stati Uniti, Regno Unito e Canada.

I risultati mostrano che i modelli di riconoscimento facciale sono effettivamente in grado di prevedere le tendenze politiche dalle immagini dei politici, con un coefficiente di correlazione di 0,13 per l’accuratezza media.

Questa precisione, sebbene non elevata, è comunque statisticamente significativa, dimostrata in immagini di laboratorio controllate. Alcune caratteristiche facciali stabili che predicono le inclinazioni politiche possono essere identificate anche in un insieme più diversificato di immagini della vita reale.


ricerca multidisciplinare

Infatti, uno studio di Nature già nel 2021 ha sottolineato che la tecnologia di riconoscimento facciale può prevedere correttamente l’orientamento politico di una persona nel 72% delle volte.


Indirizzo cartaceo: https://www.nature.com/articles/s41598-020-79310-1

L’esperimento ha rilevato che la tecnologia dell’intelligenza artificiale era migliore del caso (50%), del giudizio umano (55%) o dei questionari sulla personalità (66%).


In un altro studio del 2023, è stato utilizzato anche un algoritmo di deep learning per prevedere le tendenze politiche di una persona dal riconoscimento facciale, con una precisione di previsione fino al 61%.


Tuttavia, agli occhi degli utenti della rete, ogni sistema di intelligenza artificiale che afferma di essere in grado di leggere le emozioni delle persone o altre caratteristiche (come le inclinazioni politiche) dalle espressioni facciali è una truffa.

Non esiste alcuna base scientifica in questo caso, quindi non esistono “dati validi” che possano essere utilizzati per addestrare l’intelligenza artificiale a prevedere queste caratteristiche.


In precedenza, un rapporto del WSJ aveva messo in dubbio che l’uso dell’intelligenza artificiale di espressioni facciali stereotipate per addestrare gli algoritmi sarebbe inevitabilmente fuorviante.


Cosa ne pensi di questo?

Riferimenti:

https://www.reddit.com/r/singularity/comments/1dycnzq/ai_can_predict_political_beliefs_from/