Roboter erkennen Emotionen an Bewegung

Menschen können Emotionen auch dann an Bewegungen erkennen, wenn sie nur Strichmännchen sehen - und im Prinzip eben das könnten wohl auch Roboter lernen. Das ist das Ergebnis einer Studie eines europiäischen interdisziplinären Teams aus Psychologen und Informatikern. [...]

Auch Strichmännchen haben Emotionen. Und Roboter können lernen diese zu erkennen. (c) pixabay

Es scheint denkbar, mit diesem Ansatz soziale Roboter zu entwickeln, die wirklich richtig auf die Gemütslage jener Personen reagieren können, mit denen sie zu tun haben.

Strichmännchen-Info

„Es ist wichtig, dass ein sozialer Roboter menschliche innere Zustände wie Stress erkennen kann sowie deren Stärke“, meint Studien-Erstautorin Madeleine Bartlett, Psychlogie-Doktorandin an der University of Plymouth. Denn nur dann könnte ein Roboter auch richtig reagieren und beispielsweise einem genervten Menschen etwas mehr Platz lassen oder sich bei einer schwer gestressten Person entschuldigen und sich komplett zurückziehen. Sie und ihre Kollegen haben sich daher damit befasst, wie Menschen Emotionen erkennen und ob das auf Roboter übertragbar sein mag.

Für die in „Frontiers in Robotics and AI“ veröffentliche Studie hat das Team Videos von Kindern aufgenommen, die mit einem Roboter oder einem Touchscreen-Tisch spielen. 284 Probanden sollten dann den emotionalen Zustand bewerten und beispielsweise beurteilen, ob die Kinder zusammenarbeiten oder im Wettbewerb miteinander stehen. Dazu haben sie entweder die Originalvideos gesehen oder aber Videos, in denen die Bewegungen der Kinder auf Strichmännchen reduziert waren. Die Einschätzung beider Gruppen deckte sich häufiger, als dass dies durch reinen Zufall, also Raterei, zu erklären wäre. Speziell „aggressiv“ und „gelangweilt“ wurden gut erkannt.

Maschinell verarbeitbar

Strichmännchen sind im Prinzip auf das Wesentliche reduzierte Information, also auch für eine Maschine gut verarbeitbar. „Unsere Ergebnisse legen nahe, dass es vernünftig ist, anzunehmen, dass ein Maschinenlern-Algorithmus und somit ein Roboter lernen kann, eine Reihe von Emotionen und sozialen Interaktionen anhand von Bewegungen, Posen und Gesichtsausdrücken zu erkennen“, meint Charlotte Edmunds, Verhaltensforscherin an der Warwick Business School. Das könnte Robotern in Zukunft beispielsweise erlauben, in kritischen Situationen ohne menschliches Eingreifen den Rückzug anzutreten. Hier geht es zur Studie.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*