Wie Machine Learning Patienten mit Locked-in-Syndrom zu kommunizieren hilft

Wie ein Cloud-Experte einem innovativen Anbieter geholfen hat, sein Wearable für Menschen mit Locked-in-Syndrom zu verbessern, stellt Uli Baur, SVP DACH-Region bei AllCloud, im folgenden Kommentar dar. [...]

Uli Baur, SVP DACH Region bei AllCloud
Uli Baur, SVP DACH Region bei AllCloud (c) AllCloud

Menschen mit Locked-in-Syndrom können ihren Körper nicht bewegen und auch nicht mehr sprechen, während ihr Bewusstsein vollständig erhalten ist. Meist können sie nur noch ihre Augenlider oder Augen steuern. Neben Menschen, die dauerhaft vom Locked-in-Syndrom betroffen sind, gibt es auch Patienten, bei denen das Locked-in-Syndrom nur vorrübergehend auftritt, beispielsweise nach einer OP oder durch Beatmung bei COVID-19. Moderne Technik ermöglicht ihnen allen, wieder zu kommunizieren, indem sie ihre Bewegungen der Augenlider oder Augen in Sprache umwandelt.

Klein, leicht, tragbar, ohne Screen und kostengünstig: EyeControl gibt Patienten mit Locked-in-Syndrom ihre Kommunikationsfähigkeit wieder. (c) EyeFree Assisting Technology Ltd

Eine ähnliche Lösung verhalf übrigens dem Physiker Stephen Hawking ab 2008 dazu, seine computergenerierte Stimme zu behalten: Nachdem er auch die Kraft in seinem Daumen verloren hatte, wurde ein Infrarotsensor an Hawkings Brille installiert. Der Sensor nahm Bewegungen der rechten Gesichtshälfte wahr, die Hawking noch bewegen konnte. Diese Bewegungen wurden an den Computer gesendet, Hawking steuerte damit einen Cursor und eine Bildschirmtastatur. Ähnlich funktionieren auch die meisten anderen Lösungen mit einem Screen. Der Unterschied: Die Menschen steuern Cursor und Bildschirmtastatur mit Bewegungen ihrer Augenlider oder Augen anstatt mit einer ihrer Gesichtshälften.

Leider sind derartige Lösungen mit einem Screen teuer und somit nicht für alle Menschen mit Locked-in-Syndrom (LIS) erschwinglich. Das Unternehmen EyeFree Assisting Technology hat sich daher auf die Fahnen geschrieben, ein screen-freies und kostengünstiges Gerät auf den Markt zu bringen – entstanden ist EyeControl. Die Technologie kommt aktuell auch in Intensivstationen in Israel bei COVID-19-Patienten zum Einsatz. Erfahrungen in einem israelischen Krankenhaus zeigen, dass die Patienten durchschnittlich nach 20 Minuten Training mit EyeControl kommunizieren können.

Bei EyeControl handelt es sich um ein Wearable, bestehend aus Kopfhalterung mit Infrarotbrille, einem tragbaren Computer und einem Kabel, was beides verbindet. Die Halterung mit der Infrarotbrille wird am Kopf angebracht. Die Kamera erfasst die Bewegung der Augen und der Computer errechnet, was der Träger des Wearables sagen will. Sobald der Computer eine Eingabe erfasst und die Äußerung des Patienten berechnet hat, bekommt der Patient ein Audio-Feedback über Knochenschall. Er wird also gefragt, ob der Computer die Eingabe richtig erkannt hat. Bejaht er das, wandelt der Computer die Eingabe mittels eines Sprachgenerators in gesprochene Sprache um. Das kleine, leichte, transportable Gerät kann überall genutzt werden, also z.B. auch, wenn der Patient im Auto gefahren wird.

Genauigkeit erhöht

Um die Augenbewegungen effizient in Sprache umzuwandeln, setzt EyeFree Assisting Technology auf ein Modell, das mit Machine Learning (ML) trainiert wurde. Das Modell führte zunächst zu einer Genauigkeit von 92 Prozent, was dem Team aber nicht genügte. Zur Optimierung wendete sich das Unternehmen an den AWS Premier Consulting Partner AllCloud. AllCloud entwickelte die komplette ML-Pipeline, ein Object-Detection-Model und einen Classifier. Durch diese Verbesserung konnte die Genauigkeit auf 98,58 Prozent gesteigert werden. Die höhere Genauigkeit war dem Team von EyeFree Assisting Technology sehr wichtig, weil jede falsch erkannte Augenbewegung die Kommunikation störte und verlangsamte. Der Genauigkeitssprung trägt also dazu bei, dass die Patienten noch besser und flüssiger kommunizieren können.

Kosten reduziert

AllCloud hat zudem sein Wissen rund um die Kostenoptimierung von Cloud Computing auf AWS bei EyeFree Assisting Technology eingebracht. Um die Kosten für das Training des Object-Detection-Models zu senken und viele Iterationen zu ermöglichen, hat AllCloud auf Spot-Instanzen gesetzt. Damit hat AllCloud die Kosten signifikant gesenkt.  

Die Vorteile von EyeControl überzeugen: Derzeit werden qualifizierten Patienten die Kosten für ihr EyeControl vom israelischen Gesundheitsministerium und vom National Health System (NHS) des Vereinigten Königreichs erstattet.

Die Verbesserungen des Wearables durch Optimierung der zugrundeliegenden IT zeigt deutlich, wie wichtig die Kooperation zwischen Experten für optimales Ergebnis ist. Hier haben Experten für Medizintechnik mit Experten für die Cloud zusammengearbeitet und ein Produkt stark verbessert, das Menschen mit Locked-in-Syndrom ihre Kommunikationsfähigkeit zurückgibt.

*Uli Baur ist Senior Vice President für die DACH-Region bei AllCloud.


Mehr Artikel

News

KI in der Softwareentwicklung

Der “KI Trend Report 2025” von Objectbay liefert Einblicke, wie generative KI entlang des Software Engineering Lifecycle eingesetzt wird. Dafür hat das Linzer Softwareentwicklungs-Unternehmen 9 KI-Experten zu ihrer Praxiserfahrung befragt und gibt Einblicke, wie der Einsatz von KI die IT-Branche verändert wird. […]

News

F5-Studie enthüllt Lücken im Schutz von APIs

APIs werden immer mehr zum Rückgrat der digitalen Transformation und verbinden wichtige Dienste und Anwendungen in Unternehmen. Gerade im Zusammenhang mit kommenden KI-basierten Bedrohungen zeigt sich jedoch, dass viele Programmierschnittstellen nur unzureichend geschützt sind. […]

News

VINCI Energies übernimmt Strong-IT

VINCI Energies übernimmt Strong-IT in Innsbruck und erweitert damit das Leistungsspektrum seiner ICT-Marke Axians. Strong-IT schützt seit mehr als zehn Jahren Unternehmen gegen digitale Bedrohungen, während Axians umfassende IT-Services einbringt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*