Software erkennt Emotionen besser als Menschen

Forscher der University of Rochester haben eine Software entwickelt, die aus der Sprache eines Menschen dessen derzeitige Gemütslage erkennt. In einem Praxistest mit 700 Audio-Sprechproben konnte die Technologie den jeweiligen emotionalen Zustand in 72 Prozent der Fälle korrekt analysieren. Mit diesem Wert erzielte die Software sogar ein besseres Ergebnis als eine Vergleichsgruppe mit echten Menschen. Diese kam bei ihrer Analyse der Sprechproben lediglich auf eine Erfolgsquote von rund 60 Prozent. [...]

„Unsere Software ist nicht die erste, die dazu im Stande ist, aus den Äußerungen eines Menschen seine Gemütslage herauszulesen. Aber wir haben es zum ersten Mal geschafft, dass unsere Software den Menschen in einem direkten Vergleichswettstreit überflügeln kann“, erklären die beiden Projektmitarbeiter Na Yang und Emre Eskimez vom Department of Electrical and Computer Engineering der University of Rochester. Die Quote von 70 Prozent lasse sich sogar auf bis zu 85 Prozent hochschrauben.

Die Anwendungen sind vielfältig. Melissa Sturge-Apple, Psychologin im Team der Rochester-Forscher, möchte die Software etwa einsetzen, um die Effekte von Emotionen bei Eltern-Kind-Interaktionen zu untersuchen. „Wir wollen die Software nutzen, um die Emotionen von Eltern zu erfassen, wenn sie mit ihren Kindern interagieren und hoffen, so besser zu verstehen, wie diese Gemütszustände die Entwicklung der Sprösslinge beeinflussen“, so die Expertin.

Zu Testzwecken hat Sturge-Apple bereits damit begonnen, Familienunterhaltungen im Labor aufzuzeichnen. „Wenn diese Tests erfolgreich verlaufen, plane ich die Anbringung von Bluetooth-Mikrofonen in den Häusern der Familien.“ Dass Computer beziehungsweise einzelne Programme bald in der Lage sein könnten, die jeweiligen Emotionen ihrer User zu erkennen, kommt nicht von ungefähr.

Schon 2012 haben ebenfalls Ingenieure an der University of Rochester mit einem Algorithmus für Aufsehen gesorgt, der gefühlserkennende Smartphones ermöglichen soll. Ähnlich wie beim aktuell präsentierten Ansatz werden auch hier verschiedene Charakteristiken gesprochener Worte – beispielsweise die Tonlage und Lautstärke – analysiert, um so auf eine bestimmte Emotion zu schließen. Die Worte selbst sind dabei unerheblich. (pte)


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*