notizia

Grandi progressi nell'interfaccia cervello-computer! L'intelligenza artificiale imita i suoni e i pazienti possono "parlare"

2024-08-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Uno studio recente mostra che con il supporto della tecnologia dell’intelligenza artificiale, la tecnologia dell’interfaccia cervello-computer ha compiuto progressi significativi.

I medici dell'Università della California, a Davis, hanno impiantato degli elettrodi nello strato esterno del cervello di Casey Harrell, malato di sclerosi laterale amiotrofica (SLA), per decifrare ciò che sta cercando di dire. I ricercatori hanno scoperto che i risultati del trattamento hanno superato le aspettative, stabilendo un nuovo punto di riferimento per i decodificatori vocali impiantati e dimostrando il potenziale potere di questi dispositivi per le persone con disturbi del linguaggio.

La SLA è una malattia neurodegenerativa progressiva che colpisce il sistema nervoso. Colpisce le cellule nervose (motoneuroni) che controllano il movimento muscolare volontario, provocando il graduale indebolimento e atrofia dei muscoli, fino a far perdere al paziente la capacità di camminare, parlare, deglutire e persino respirare. Con il progredire della malattia, i muscoli che controllano la parola e la deglutizione vengono gradualmente danneggiati, con conseguente debolezza del linguaggio e atrofia dei muscoli delle mani che rendono difficile per i pazienti esprimersi a parole, portando infine al deterioramento della capacità di parlare.

Secondo i media, il team di trattamento di Harrell ha impiantato chirurgicamente quattro serie di elettrodi, che sembrano piccoli letti di chiodi, nello strato esterno del suo cervello. Si tratta del doppio del numero di impianti della regione linguistica precedentemente impiantati in pazienti affetti da SLA in un altro studio. Le 64 sonde di ciascun array catturavano segnali elettrici dai neuroni mentre Harrell cercava di muovere le labbra, la mascella e la lingua per parlare.

Tre settimane dopo l'intervento chirurgico, i ricercatori hanno collegato con successo l'impianto a una serie di computer tramite fili collegati a due montanti metallici sul cranio di Harrell.

Dopo che il computer ha appreso brevemente il discorso di Harrell, il dispositivo ha iniziato a registrare ciò che voleva dire in 50 parole con una precisione del 99,6%.

I ricercatori affermano che il dispositivo in realtà aggira la malattia di Harrell, facendo affidamento non sui suoi muscoli facciali indeboliti ma sulla parte della corteccia motoria del suo cervello che inizialmente formula istruzioni per parlare.

"L'innovazione chiave è quella di indirizzare più array in modo molto preciso verso le regioni del cervello che possiamo trovare che sono più espressive del linguaggio", ha affermato Sergey Stavisky, neuroscienziato dell'Università della California, Davis, che ha condotto lo studio.

Nel secondo giorno di test, il dispositivo è stato in grado di coprire 125.000 parole con una precisione del 90% e per la prima volta ha generato frasi scritte dallo stesso Harrell. Inoltre, il dispositivo pronunciava le frasi con una voce che somigliava molto alla sua: utilizzando interviste podcast e altre vecchie registrazioni, i ricercatori hanno utilizzato l'intelligenza artificiale per imitare profondamente la voce di Harrell prima che si ammalasse.

Man mano che i ricercatori continuavano ad addestrare il dispositivo a riconoscere la sua voce, migliorava sempre di più.Lo studio riporta che in otto mesi Harrell ha pronunciato quasi 6.000 parole diverse. La precisione del dispositivo rimane al 97,5%.

Questo punteggio supera la precisione di molte app del telefono che trascrivono il parlato. Segna anche un miglioramento rispetto agli studi precedenti, in cui l’impianto era accurato al 75% circa, con una probabilità su quattro di essere fraintesa.

E, a differenza del dispositivo Neuralink di interfaccia cervello-computer di Musk che aiuta le persone a spostare il cursore su uno schermo, l'impianto di Harrell gli consente di esplorare aree del discorso infinitamente più grandi e complesse, che secondo i ricercatori è qualcosa per cui i pazienti possono usare ogni giorno un sistema comunicare con la famiglia e gli amici.

I ricercatori affermano che questo risultato è dovuto in parte ai modelli di intelligenza artificiale utilizzati in strumenti linguistici come ChatGPT.In ogni momento, l'impianto di Harrell capta l'attività di un gruppo di neuroni, traducendo i loro schemi di attivazione in unità sonore di vocali o consonanti. Il computer quindi aggrega una stringa di tali suoni in una parola e una stringa di parole in una frase, scegliendo l'output che ritiene più probabile corrisponda a ciò che Harrell sta cercando di dire.

Tuttavia, non è chiaro se gli stessi impianti sarebbero ugualmente utili nei pazienti con paralisi più grave. Perché, sebbene la capacità di parlare di Harrell sia peggiorata, non è scomparsa. Inoltre, sebbene questo insieme di tecnologie abbia effetti significativi, è costoso e non può essere coperto dalla maggior parte delle assicurazioni, rendendolo inaccessibile per la gente comune.