Patienten mit dem sogenannten Locked-in-Syndrom sind Gefangene im eigenen Körper: Sie sind bei Bewusstsein, jedoch komplett gelähmt – das macht eine Kommunikation mit Mitmenschen fast unmöglich. Die Ursachen für die Krankheit sind Schäden im Gehirn, etwa durch Tumore. Auch Schlaganfälle oder Schädel-Hirn-Traumata können zu einer vollständigen Lähmung, auch Plegie genannt, führen und dadurch den Kontakt zur Außenwelt kappen. Zwei Studien, die kürzlich im Fachblatt Nature erschienen, berichten nun davon, wie im Gesicht gelähmte Menschen mithilfe von Geräten durch ihre Gedanken wieder sprechen können.
Noch nie dagewesenes künstliches Sprechtempo
Bei einigen neurologischen Krankheiten werden die Muskeln, die man für das Sprechen und das Bewegen des Körpers braucht, gelähmt, während die kognitiven Funktionen erhalten bleiben. Die einzigen Möglichkeiten der Kommunikation sind dann das Blinzeln mit den Augen oder kleine Bewegungen. Menschen mit dem sogenannten Locked-in-Syndrom oder ähnlichen Krankheitsbildern wird es meist über unterstützte Kommunikationstechnologien ermöglicht zu kommunizieren. Hierbei können jedoch nur ein wenige Wörter pro Minute gesprochen werden.
Die Arbeit zweier Forschungsteams ermöglicht es Patienten nun mithilfe von Gehirn-Computer-Schnittstellen Konversationen zu führen. Die Worte spricht eine künstliche Stimme. Normalerweise spricht man im Deutschen in etwa 90 bis 120 Wörter pro Minute. Die Innovationen der beiden Forschungsteams ermöglichen es den Nutzern 78 beziehungsweise 62 Wörter pro Minute zu sprechen. Somit ist eine reguläre Konversationsgeschwindigkeit noch nicht möglich, doch die neuen Technologien stellen eine Verbesserung im Vergleich zu bisherigen Kommunikationshilfen dar.
Entscheidender Schritt in der Forschung
Das Gerät des Teams rund um Edward Changs, Neurochirurg an der University of California, nutzt Elektroden, welche auf großen Teilen der Oberfläche der Hirnrinde angebracht werden, um die Gehirnaktivität aufzunehmen. Diese wird mithilfe eines künstlichen neuralen Netzwerks in gesprochenes oder geschriebenes Wort übersetzt. Das genutzte Vokabular umspannt 1.024 Wörter. Ein Sprachmodell korrigiert mögliche Fehler. Um die Emotionen der Nutzer akkurat darstellen zu können, werden die gefühlten Emotionen in die Mimik eines Avatars übersetzt. Die Forschenden orientierten sich beim Klang der künstlichen Stimme an Aufnahmen einer Studienteilnehmerin vor ihrem Unfall. Mit solch einer Herangehensweise kann für Nutzer das Gefühl erweckt werden, tatsächlich wieder mit der eigenen Stimme sprechen zu können.
Das Gerät des Teams um Francis Willett, Wissenschaftler des Neuroprothesen-Labors der Universität Stanford, nutzt hingegen eine in den Cortex implantierte Vielfalt an Mikroelektroden und nimmt die Signale einer geringen Anzahl an Neuronen auf. In einen Text übersetzt werden die Signale mithilfe eines rückgekoppelten neuronalen Netzwerks und eines Sprachmodells. Das Gerät nutzt ein Vokabular von 125.000 Wörtern.
Das Ziel: flüssige Konversation
Die MEA (kurz für microelectrode array) Technologie, die im Gerät von Francis Willetts verwendet wird, arbeitet mit teils instabilen Signalen. Deshalb sind häufige Updates von Nöten. Außerdem tendieren die aus Elektroden bestehenden Materialen dazu mit der Zeit abzubauen. Die von Edward Chang verwendete Technologie muss im Vergleich zu MEAs auf einer größeren Fläche implantiert werden, kann jedoch genauere Signale versenden als die mit MEA arbeitende Technologie. Welche der beiden Innovationen sich durchsetzen wird, lässt sich noch nicht feststellen. Entscheidend wird sein, wie sich die Geräte im Alltag anwenden lassen und wie flüssig sich die mit den Geräten geführten Gespräche gestalten.
Was meinen Sie?