Forscher der University of California, San Diego haben Roboter und Avatare entwickelt, die Schmerz, Ekel und Ärger ausdrücken können. [...]
Im Vorfeld wurden Videos von Personen, die diese Emotionen zeigen, mithilfe einer Gesichtserkennungs-Software in eine Serie von 66 Bewegungspunkten umgewandelt. Diese sind anschließend auf dem Robotergesicht und dem Avatar abgebildet worden.
Humanoide Roboter genutzt
„Die künstliche Darstellung von Emotionen ist ein wichtiges Instrument der Robotik, um eine nonverbale Kommunikationsebene zwischen Roboter und Menschen bereitzustellen. Auch Joanneum Research – Robotics arbeitet derzeit an der Darstellung von Gesichtsausdrücken für einen Roboterkopf. Hierbei versuchen wir robotertypische Zustandsformen, wie z.B. ‚Aufgabe verstanden‘, ‚Aufgabe erledigt‘ oder auch ‚Eingabe unverständlich‘ über Gesichtsausdrücke, mit teilweise unterstützenden Gesten, umzusetzen“, erläutert Mathias Brandstötter von Robotics – Institut für Robotik und Mechatronik der Joanneum Research Forschungsgesellschaft.
Mit Kindern, Erwachsenen und älteren Menschen werde mit unterschiedlichen Augen- und Mundformen versucht, verständlich zu kommunizieren. „Aus der Erfahrung haben wir gelernt, dass ein Satz bekannter Emotionen viel einfacher für einen Menschen einzuordnen sind, als wenn die zu erkennenden Gesichtsausdrücke einem Menschen vorher nicht bekannt sind. Diese Herausforderung versucht Robotics aktuell zu bewältigen“, resümiert der Experte.
Bei dem verwendeten Roboter der University of California handelt es sich um den humanoiden Roboter des Unternehmens Hanson Robotics, der den Science-Fiction-Autor Philip K Dick darstellt. Dieser verfügt über eine Gummihaut und kann seine Gesichtszüge bewegen. Die Forscher haben 102 Probanden Videos der Roboter und von virtuellen Avatare gezeigt. Von den Versuchsteilnehmern gehörten 51 zum medizinischen Fachpersonal, darunter Ärzte, Krankenschwestern und Pharmazeuten, während der Rest keinen medizinischen Hintergrund hatte.
Interpretations-Fähigkeit wichtig
Den Ergebnissen der Studie zufolge haben die Mediziner bei der Einschätzung von Schmerz und Ärger wesentlich schlechter abgeschnitten als die andere Hälfte der Probanden. Hier lag die Trefferquote des Fachpersonals bei lediglich 54 Prozent, während die der restlichen Versuchsteilnehmer mit 83 Prozent erstaunlich hoch war. Für Ekel fielen die Ergebnisse beider Gruppen annähernd ähnlich aus.
„Das Gesicht eines Patienten zu interpretieren, kann dabei helfen zu bestimmen, ob dieser einen Schlaganfall erlitten hat, ob er Schmerzen hat oder, ob er auf die Medikation reagiert. Somit müssen Ärzte von Anfang an über diese Fähigkeit verfügen“, schildert Studienleiterin Laurel Riek, Professorin für Computer Science und Engineering an der University of California, San Diego. Die Forschungsergebnisse sind kürzlich auf der Conference on Human-Robot Interaction in Wien präsentiert worden.
Be the first to comment