Gefühlserkennung: Roboter trainieren Mediziner

Forscher der University of California, San Diego haben Roboter und Avatare entwickelt, die Schmerz, Ekel und Ärger ausdrücken können. [...]

Im Vorfeld wurden Videos von Personen, die diese Emotionen zeigen, mithilfe einer Gesichtserkennungs-Software in eine Serie von 66 Bewegungspunkten umgewandelt. Diese sind anschließend auf dem Robotergesicht und dem Avatar abgebildet worden.
Humanoide Roboter genutzt
„Die künstliche Darstellung von Emotionen ist ein wichtiges Instrument der Robotik, um eine nonverbale Kommunikationsebene zwischen Roboter und Menschen bereitzustellen. Auch Joanneum Research – Robotics arbeitet derzeit an der Darstellung von Gesichtsausdrücken für einen Roboterkopf. Hierbei versuchen wir robotertypische Zustandsformen, wie z.B. ‚Aufgabe verstanden‘, ‚Aufgabe erledigt‘ oder auch ‚Eingabe unverständlich‘ über Gesichtsausdrücke, mit teilweise unterstützenden Gesten, umzusetzen“, erläutert Mathias Brandstötter von Robotics – Institut für Robotik und Mechatronik der Joanneum Research Forschungsgesellschaft.
Mit Kindern, Erwachsenen und älteren Menschen werde mit unterschiedlichen Augen- und Mundformen versucht, verständlich zu kommunizieren. „Aus der Erfahrung haben wir gelernt, dass ein Satz bekannter Emotionen viel einfacher für einen Menschen einzuordnen sind, als wenn die zu erkennenden Gesichtsausdrücke einem Menschen vorher nicht bekannt sind. Diese Herausforderung versucht Robotics aktuell zu bewältigen“, resümiert der Experte.
Bei dem verwendeten Roboter der University of California handelt es sich um den humanoiden Roboter des Unternehmens Hanson Robotics, der den Science-Fiction-Autor Philip K Dick darstellt. Dieser verfügt über eine Gummihaut und kann seine Gesichtszüge bewegen. Die Forscher haben 102 Probanden Videos der Roboter und von virtuellen Avatare gezeigt. Von den Versuchsteilnehmern gehörten 51 zum medizinischen Fachpersonal, darunter Ärzte, Krankenschwestern und Pharmazeuten, während der Rest keinen medizinischen Hintergrund hatte.
Interpretations-Fähigkeit wichtig
Den Ergebnissen der Studie zufolge haben die Mediziner bei der Einschätzung von Schmerz und Ärger wesentlich schlechter abgeschnitten als die andere Hälfte der Probanden. Hier lag die Trefferquote des Fachpersonals bei lediglich 54 Prozent, während die der restlichen Versuchsteilnehmer mit 83 Prozent erstaunlich hoch war. Für Ekel fielen die Ergebnisse beider Gruppen annähernd ähnlich aus.
„Das Gesicht eines Patienten zu interpretieren, kann dabei helfen zu bestimmen, ob dieser einen Schlaganfall erlitten hat, ob er Schmerzen hat oder, ob er auf die Medikation reagiert. Somit müssen Ärzte von Anfang an über diese Fähigkeit verfügen“, schildert Studienleiterin Laurel Riek, Professorin für Computer Science und Engineering an der University of California, San Diego. Die Forschungsergebnisse sind kürzlich auf der Conference on Human-Robot Interaction in Wien präsentiert worden.

Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*