Mi información de contacto
Correo[email protected]
2024-08-16
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Un estudio más reciente muestra que con el apoyo de la tecnología de inteligencia artificial, la tecnología de interfaz cerebro-computadora ha logrado avances significativos.
Médicos de la Universidad de California, Davis, han implantado electrodos en la capa externa del cerebro de Casey Harrell, paciente con esclerosis lateral amiotrófica (ELA), para descifrar lo que está tratando de decir. Los investigadores descubrieron que los resultados del tratamiento excedieron las expectativas, estableciendo un nuevo punto de referencia para los decodificadores del habla implantados y demostrando el poder potencial de estos dispositivos para personas con discapacidades del habla.
La ELA es una enfermedad neurodegenerativa progresiva que afecta al sistema nervioso. Afecta las células nerviosas (neuronas motoras) que controlan el movimiento muscular voluntario, lo que hace que los músculos se debiliten y atrofien gradualmente, lo que finalmente provoca que el paciente pierda la capacidad de caminar, hablar, tragar e incluso respirar. A medida que avanza la enfermedad, los músculos que controlan el habla y la deglución se dañan gradualmente, lo que provoca dificultad para hablar y la atrofia de los músculos de la mano también dificulta que los pacientes se expresen con palabras, lo que eventualmente conduce al deterioro de la capacidad del habla.
Según informes de los medios, el equipo de tratamiento de Harrell implantó quirúrgicamente cuatro conjuntos de electrodos, que parecen pequeños lechos de clavos, en la capa externa de su cerebro. Esto es el doble del número de implantes de regiones lingüísticas implantados previamente en pacientes con ELA en otro estudio. Las 64 sondas de cada conjunto capturaron señales eléctricas de las neuronas mientras Harrell intentaba mover los labios, la mandíbula y la lengua para hablar.
Tres semanas después de la cirugía, los investigadores conectaron con éxito el implante a una serie de computadoras mediante cables conectados a dos postes de metal en el cráneo de Harrell.
Después de que la computadora aprendió brevemente el discurso de Harrell, el dispositivo comenzó a grabar lo que quería decir en 50 palabras con una precisión del 99,6 por ciento.
Los investigadores dicen que el dispositivo en realidad evita la enfermedad de Harrell, basándose no en sus debilitados músculos faciales sino en la parte de la corteza motora de su cerebro que inicialmente formula instrucciones para hablar.
"La innovación clave es dirigir más matrices con mucha precisión a las regiones del cerebro que podemos encontrar que son más expresivas del lenguaje", dijo Sergey Stavisky, neurocientífico de la Universidad de California, Davis, quien dirigió el estudio.
En el segundo día de pruebas, el dispositivo pudo cubrir 125.000 palabras con un 90% de precisión y por primera vez generó oraciones escritas por el propio Harrell. Es más, el dispositivo pronunció las frases con una voz que se parecía mucho a la suya: utilizando entrevistas en podcasts y otras grabaciones antiguas, los investigadores utilizaron IA para imitar profundamente la voz de Harrell antes de que enfermara.
A medida que los investigadores continuaron entrenando el dispositivo para reconocer su voz, mejoró cada vez más.El estudio informa que durante ocho meses, Harrell pronunció casi 6.000 palabras diferentes. La precisión del dispositivo se mantiene en el 97,5%.
Esta puntuación supera la precisión de muchas aplicaciones telefónicas que transcriben el habla. También marca una mejora con respecto a estudios anteriores, en los que el implante tenía una precisión de aproximadamente el 75%, y una de cada cuatro palabras probablemente se malinterpretara.
Y, a diferencia del dispositivo Neuralink con interfaz cerebro-computadora de Musk que ayuda a las personas a mover un cursor en una pantalla, el implante de Harrell le permite explorar áreas del habla infinitamente más grandes y complejas, que según los investigadores es algo que los pacientes pueden usar todos los días. comunicarse con familiares y amigos.
Los investigadores dicen que este logro se debe en parte a los modelos de inteligencia artificial utilizados en herramientas lingüísticas como ChatGPT.En cualquier momento dado, el implante de Harrell capta la actividad de un grupo de neuronas, traduciendo sus patrones de activación en unidades sonoras de vocales o consonantes. Luego, la computadora agrega una cadena de dichos sonidos en una palabra y una cadena de palabras en una oración, eligiendo la salida que cree que tiene más probabilidades de coincidir con lo que Harrell está tratando de decir.
Sin embargo, no está claro si los mismos implantes serían igualmente útiles en pacientes con parálisis más grave. Porque, aunque la capacidad del habla de Harrell se ha deteriorado, no ha desaparecido. Además, aunque este conjunto de tecnologías tiene efectos significativos, es caro y no puede ser cubierto por la mayoría de los seguros, lo que lo hace inasequible para la gente corriente.