2024-08-16
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Eine aktuelle Studie zeigt, dass die Gehirn-Computer-Schnittstellentechnologie mit Unterstützung der Technologie der künstlichen Intelligenz erhebliche Fortschritte gemacht hat.
Ärzte der University of California, Davis, haben Elektroden in die äußere Schicht des Gehirns des an Amyotropher Lateralsklerose (ALS) erkrankten Casey Harrell implantiert, um zu entschlüsseln, was er sagen will. Die Forscher stellten fest, dass die Behandlungsergebnisse die Erwartungen übertrafen, einen neuen Maßstab für implantierte Sprachdecoder setzten und die potenzielle Leistungsfähigkeit dieser Geräte für Menschen mit Sprachbehinderungen demonstrierten.
ALS ist eine fortschreitende neurodegenerative Erkrankung, die das Nervensystem betrifft. Es betrifft die Nervenzellen (Motoneuronen), die die willkürliche Muskelbewegung steuern, was dazu führt, dass die Muskeln allmählich schwächer werden und verkümmern, was schließlich dazu führt, dass der Patient nicht mehr gehen, sprechen, schlucken und sogar atmen kann. Mit fortschreitender Krankheit werden die Muskeln, die das Sprechen und Schlucken kontrollieren, allmählich geschädigt, was zu undeutlichem Sprechen führt. Schwäche und Atrophie der Handmuskeln machen es den Patienten auch schwer, sich in Worten auszudrücken, was schließlich zu einer Verschlechterung der Sprechfähigkeit führt.
Medienberichten zufolge implantierte Harrells Behandlungsteam chirurgisch vier Elektrodenanordnungen, die wie winzige Nagelbetten aussehen, in die äußere Schicht seines Gehirns. Dies ist die doppelte Anzahl an Sprachregionimplantaten, die zuvor in einer anderen Studie bei ALS-Patienten implantiert wurden. Die 64 Sonden jedes Arrays erfassten elektrische Signale von Neuronen, als Harrell versuchte, seine Lippen, seinen Kiefer und seine Zunge zum Sprechen zu bewegen.
Drei Wochen nach der Operation gelang es den Forschern, das Implantat über Drähte, die an zwei Metallpfosten an Harrells Schädel befestigt waren, erfolgreich mit einer Reihe von Computern zu verbinden.
Nachdem der Computer Harrells Rede kurz gelernt hatte, begann das Gerät mit einer Genauigkeit von 99,6 Prozent aufzuzeichnen, was er in 50 Wörtern sagen wollte.
Forscher sagen, dass das Gerät die Harrell-Krankheit tatsächlich umgeht, indem es sich nicht auf seine geschwächten Gesichtsmuskeln verlässt, sondern auf den Teil der motorischen Hirnrinde, der zunächst Anweisungen zum Sprechen formuliert.
„Die entscheidende Neuerung besteht darin, mehr Arrays sehr präzise auf die Gehirnregionen auszurichten, die wir finden können und die die Sprache am stärksten ausdrücken“, sagte Sergey Stavisky, ein Neurowissenschaftler an der University of California, Davis, der die Studie leitete.
Am zweiten Testtag konnte das Gerät 125.000 Wörter mit einer Genauigkeit von 90 % abdecken und generierte erstmals Sätze, die Harrell selbst geschrieben hatte. Darüber hinaus sprach das Gerät die Sätze mit einer Stimme, die seiner eigenen sehr ähnelte: Mithilfe von Podcast-Interviews und anderen alten Aufnahmen haben die Forscher mithilfe von KI Harrells Stimme tiefgreifend nachgeahmt, bevor er krank wurde.
Während die Forscher das Gerät weiter darauf trainierten, seine Stimme zu erkennen, wurde es immer besser.Die Studie berichtet, dass Harrell im Laufe von acht Monaten fast 6.000 verschiedene Wörter ausgesprochen hat. Die Genauigkeit des Geräts liegt weiterhin bei 97,5 %.
Dieser Wert übertrifft die Genauigkeit vieler Telefon-Apps, die Sprache transkribieren. Es stellt auch eine Verbesserung gegenüber früheren Studien dar, in denen das Implantat eine Genauigkeit von etwa 75 % hatte und jedes vierte Wort wahrscheinlich missverstanden wurde.
Und im Gegensatz zu Musks Gehirn-Computer-Schnittstellengerät Neuralink, das Menschen dabei hilft, einen Cursor auf einem Bildschirm zu bewegen, ermöglicht ihm Harrells Implantat, unendlich größere und komplexere Bereiche der Sprache zu erkunden, was den Forschern zufolge etwas ist, wofür Patienten jeden Tag ein System nutzen können Kommunikation mit Familie und Freunden.
Forscher sagen, dass dieser Erfolg teilweise auf die Modelle der künstlichen Intelligenz zurückzuführen ist, die in Sprachtools wie ChatGPT verwendet werden.Zu jedem Zeitpunkt nimmt Harrells Implantat die Aktivität einer Gruppe von Neuronen auf und übersetzt deren Feuermuster in Lauteinheiten von Vokalen oder Konsonanten. Der Computer fasst dann eine Reihe solcher Laute zu einem Wort und eine Reihe von Wörtern zu einem Satz zusammen und wählt die Ausgabe aus, von der er glaubt, dass sie am ehesten mit dem übereinstimmt, was Harrell sagen möchte.
Es ist jedoch unklar, ob die gleichen Implantate bei Patienten mit schwereren Lähmungen gleichermaßen hilfreich wären. Denn obwohl sich Harrells Sprachfähigkeit verschlechtert hat, ist sie nicht verschwunden. Obwohl diese Technologie erhebliche Auswirkungen hat, ist sie außerdem teuer und kann von den meisten Versicherungen nicht abgedeckt werden, was sie für den Normalbürger unerschwinglich macht.