Software erkennt Emotionen besser als Menschen

Forscher der University of Rochester haben eine Software entwickelt, die aus der Sprache eines Menschen dessen derzeitige Gemütslage erkennt. In einem Praxistest mit 700 Audio-Sprechproben konnte die Technologie den jeweiligen emotionalen Zustand in 72 Prozent der Fälle korrekt analysieren. Mit diesem Wert erzielte die Software sogar ein besseres Ergebnis als eine Vergleichsgruppe mit echten Menschen. Diese kam bei ihrer Analyse der Sprechproben lediglich auf eine Erfolgsquote von rund 60 Prozent. [...]

„Unsere Software ist nicht die erste, die dazu im Stande ist, aus den Äußerungen eines Menschen seine Gemütslage herauszulesen. Aber wir haben es zum ersten Mal geschafft, dass unsere Software den Menschen in einem direkten Vergleichswettstreit überflügeln kann“, erklären die beiden Projektmitarbeiter Na Yang und Emre Eskimez vom Department of Electrical and Computer Engineering der University of Rochester. Die Quote von 70 Prozent lasse sich sogar auf bis zu 85 Prozent hochschrauben.

Die Anwendungen sind vielfältig. Melissa Sturge-Apple, Psychologin im Team der Rochester-Forscher, möchte die Software etwa einsetzen, um die Effekte von Emotionen bei Eltern-Kind-Interaktionen zu untersuchen. „Wir wollen die Software nutzen, um die Emotionen von Eltern zu erfassen, wenn sie mit ihren Kindern interagieren und hoffen, so besser zu verstehen, wie diese Gemütszustände die Entwicklung der Sprösslinge beeinflussen“, so die Expertin.

Zu Testzwecken hat Sturge-Apple bereits damit begonnen, Familienunterhaltungen im Labor aufzuzeichnen. „Wenn diese Tests erfolgreich verlaufen, plane ich die Anbringung von Bluetooth-Mikrofonen in den Häusern der Familien.“ Dass Computer beziehungsweise einzelne Programme bald in der Lage sein könnten, die jeweiligen Emotionen ihrer User zu erkennen, kommt nicht von ungefähr.

Schon 2012 haben ebenfalls Ingenieure an der University of Rochester mit einem Algorithmus für Aufsehen gesorgt, der gefühlserkennende Smartphones ermöglichen soll. Ähnlich wie beim aktuell präsentierten Ansatz werden auch hier verschiedene Charakteristiken gesprochener Worte – beispielsweise die Tonlage und Lautstärke – analysiert, um so auf eine bestimmte Emotion zu schließen. Die Worte selbst sind dabei unerheblich. (pte)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*