„Gefühlkonomie“: Wenn Emotion auf Business trifft

Immer öfter werden Bedienoberflächen so programmiert, dass sie den Gefühlszustand ihrer Nutzer einschätzen können. Aber nicht nur der emotionale Zustand oder die Stimmung des Nutzers werden erkannt. Auch wie das System mit dem Nutzer kommuniziert, kann stimuliert und beeinflusst werden. [...]

Künstliche Intelligenz ist auf dem Vormarsch. Warum das Erkennen von Emotionen alles verändern wird, lesen Sie hier. (c) Pixabay
Künstliche Intelligenz ist auf dem Vormarsch. Warum das Erkennen von Emotionen alles verändern wird, lesen Sie hier. (c) Pixabay

Ein im Jänner veröffentlichter Bericht von Gartner sagt voraus, dass in vier Jahren Ihre „Geräte mehr über Ihren emotionalen Zustand wissen, als Ihre eigene Familie“. Mittlerweile können Maschinen nicht nur Gefühle wie Glück, Überraschung, Wut, Traurigkeit, Angst und Ekel erkennen, sondern sind fähig 20 der, laut Psychologen in Menschen vorhandenen 27 unterschiedlichen Emotionen, wie Ehrfurcht, freudig überrascht und Hass zu unterscheiden.

Die University of Ohio entwickelte ein Programm, dass 21 Emotionen anhand von Gesichtsausdrücken auf Fotos erkennt. Das schockierende an der Sache? Die Forscher behaupten, das System erkenne die Emotionen besser als Menschen.

Es gibt gute Gründe wieso Unternehmen immer häufiger auf emotionale Betriebsoberflächen setzen.

Empathie steigert das Business

Die „Wirtschaft des Einfühlungsvermögens“ ist eine Bezeichnung für künstliche Intelligenz (AI), die Emotionen zu erkennen und stimulieren gelernt hat. Eine Errungenschaft, die den Kundenservice, virtuelle Assistenten, Roboter, Sicherheitsfaktoren, das Gesundheits- und Transportsystem nachhaltig beeinflussen und verändern wird.

93 % der Befragten einer Cogito Umfrage von Frost & Sullivan gaben an, dass eine Interaktion mit dem Kundendienst beeinflusst, wie das Unternehmen wahrgenommen wird. Empathie spielt dabei eine besonders wichtige Rolle.

Cogitos AI Software, welche auf den Verhaltensforschungen des MIT Human Dynamics Lab aufgebaut wurde, analysiert die emotionale Verfassung des Kunden und gibt ein Feedback an menschliche Call Center Agenten weiter. Dies ermöglicht den Mitarbeitern, sich besser in die Situation des Kunden einzufühlen.
Diese Art von Technologie gibt Call Center Mitarbeitern Empathie Superkräfte, was die öffentliche Wahrnehmung einer Firma grundlegend positiv beeinflussen kann.

Mittlerweile ist es Forschern gelungen, dass Maschinen nicht nur Basisemotionen sondern auch feinere Emotionen erkennen können. Durch diese Details ist ein besseres Verständnis zwischen Mensch und Maschine möglich. (c) Pixabay
Mittlerweile ist es Forschern gelungen, dass Maschinen nicht nur Basisemotionen sondern auch feinere Emotionen erkennen können. Durch diese Details ist ein besseres Verständnis zwischen Mensch und Maschine möglich. (c) Pixabay

Unternehmen wie Affectiva und Realeyes bieten cloud-basierende Lösungen, die Webcams nutzen, um Gesichtsausdrücke und die Herzfrequenz zu erkennen. Eine Bereich, in dem diese Technologie zur Anwendung kommt, ist die Marktforschung. Kunden sehen eine Werbung und die Technologie erkennt, wie Bild und Wörter der Werbung emotional wahrgenommen werden.

Diese Firmen versuchen ihr Wirkungsfeld zu vergrößern. Zum Beispiel im Gesundheitssektor. Hier könnten automatisierte Call Center Depressionen oder Schmerz in der Stimme eines Anrufers erkennen, ohne, dass die Probleme direkt benannt werden.

Roboter Forpheus, gebaut von Omron Automation (Japan) und im Jänner auf der CES gezeigt, spielt Ping-Pong. Teil seiner Fähigkeiten ist es, durch Lesen der Körpersprache seines Gegners, dessen Stimmung und Erfahrungslevel zu erkennen.
Der Sinn des Roboters ist es nicht Ping-Pong zu spielen, sondern die Zusammenarbeit zwischen Mensch und Roboter zu ermöglichen. Wenn beide „in Harmonie“ miteinander arbeiten steigert das nicht nur die Produktivität, sondern auch die Sicherheit am Arbeitsplatz. Durch das Lesen der Körpersprache eines Fabrikarbeiters, zum Beispiel, kann der Industrieroboter vorhersehen, wie und wohin sich Menschen bewegen.

Roboter wie Qihan Technologys Sanbot, SoftBank Robotics Pepper und Hondas 3E-A18 existieren um Menschen zu helfen. Sie fungieren als rollende Informationsstände auf Flughäfen, in Einkaufszentren, Hotels oder an anderen Orten. Sie wurden gebaut um menschliche Gefühle nachzuahmen und zu verstehen. So können sie zufriedenstellende Antworten auf jede gestellte Frage geben. Diese Roboter lesen die Körpersprache, erkennen Stimmmuster und Gesichtsausdrücke und „verstehen“ dadurch wie sich der Nutzer fühlt oder ob der Nutzer zum Beispiel verwirrt ist.

Ein weiterer großer und offensichtlicher Nutzungsbereich für „Emotionserkennung“ ist die Automobilindustrie. Mit Hilfe von biometrischen Sensoren, Kameras im Dashboard, Sitzen und Gurten, kann On-board AI erkennen ob der Fahrer gestresst oder zu müde ist um weiter zu fahren. Emotionserkennende Autos könnten Unfälle reduzieren und Versicherungspremieren vergünstigen. So arbeitet zum Beispiel Ford mit der EU zusammen, um ein System zu entwickeln.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Emotionserkennung ist nicht nur die Analyse von Fotos, Videos oder gesprochener Sprache.

IBMs Watson hat eine „Ton Analyse“ die Emotionen, aber auch Sarkasmus in geschriebener Kommunikation erkennen kann.

Während die Anwendung von Emotionaler AI in Unternehmen bereits vielseitig genutzt wird, wird die Öffentlichkeit damit erst im Kunden- und öffentlichen Bereich in Berührung kommen.

Facebook erhielt vor Kurzem das Patent für „Emotionserkennende Selfie Filter“. Die Idee: Das Programm wählt die „Maske“ für das Selfie anhand der Emotion die am Foto erkannt wurde, automatisch. Ist die Person zum Beispiel unglücklich, wählt der Filter Cartoon Tränen aus. Eine Person die glücklich aussieht, erhält den „Glücklichen Panda“ Filter.

Das Videospiel Nevermind verwendet Biofeedback um die Stimmung des Spielers zu erkennen und das Schwierigkeitslevel anzupassen. Je ängstlicher der Spieler ist, desto schwieriger wir das Spiel. (Es nutzt eine Technologie von Affectiva.)

All diese Beispiele sind triviale Anwendungen. Aber sie gewöhnen die Öffentlichkeit an Software, die Emotionen erkennen kann.

In Großbritannien verwendet die Regierung den Dienst G-Cloud 10. Von FlyingBinary und Emrays entwickelt, hilft die Software, anhand von Social Media Posts und Kommentaren, den Allgemeinzustand der Bevölkerung abzutasten.

Menschen die in China leben, treffen zum ersten Mal in Schulen auf Emotions AI. Im März platzierte eine Schule in China Kameras in Klassenzimmern, welche durch AI den Gefühlszustand der Studenten misst. (Das System nimmt zudem die Anwesenheit auf und verfolgt was die Kinder zu jeder Zeit machen.) Es benotet Schüler danach, wie abgelenkt sie sind. (Eine Version von Orwell’s „Facecrime“). Sie müssen nicht nur Aufmerksam sein, sondern auch aufmerksam aussehen.

Emotion und Einfühlungsvermögen verbessern den Umsatz auf viele Arten und Weisen. Das ist die gute Eigenschaft dieser Technologie.

Trotzdem Maschinen keine Menschen sind, schaffen Sie es durch die Nutzung von künstlicher Intelligenz und dem "Verständnis" für Emotion weitere Fortschritte zu machen. Vor allem in der Kommunikation wird der Einsatz von Emotionaler Künstlicher Intelligenz viele herrschende Verständnisprobleme lösen. (c) Pixabay
Trotzdem Maschinen keine Menschen sind, schaffen Sie es durch die Nutzung von künstlicher Intelligenz und dem „Verständnis“ für Emotion weitere Fortschritte zu machen. Vor allem in der Kommunikation wird der Einsatz von Emotionaler Künstlicher Intelligenz viele herrschende Verständnisprobleme lösen. (c) Pixabay

Hier kommt die großartige:

Emotion ist notwendig zur Kommunikation

AI und Roboter sind Maschinen. Aber keine Menschen.

Es ist ein weitverbreitendes Missverständnis, dass der Inhalt unserer Worte die Summe aller menschlichen Kommunikation ist. Menschen kommunizieren allerdings nicht nur mit Worten, sondern zusätzlich mit Intonation, Gesichtsausdrücken, Handgesten und Körpersprache.

Darum ist die Kommunikation via Email gefüllt mit Missverständnissen. Ohne nonverbale Hinweise, gehen mitgedachte Bedeutungen verloren.

In der kurzen Geschichte des Computers, gibt es einen steten Trend: Wenn Computer stärker werden, wird ein großer Teil dieser „Kraft“ in die Qualität der Interaktion zwischen Maschine und Nutzer gesteckt.

Vor nicht allzu langer Zeit, bestand die Nutzerfläche aus Schaltern, Lochkarten und Tonbändern. Der Mensch musste hart daran arbeiten, die Binärsprache des Computers zu lernen. Im Schnelldurchlauf ging es von der Befehlszeile, der Graphischen Benutzerfläche zum sprachgesteuerten Interface. Mit jeder Entwicklung arbeiten die Maschinen härter daran, die Benutzerflächen einfacher für die Menschen zu machen.

Das Problem der aktuellen sprachgesteuerten Benutzerflächen ist, dass sie nur mit den Wörtern, nicht aber mit den nonverbalen Hinweisen arbeiten und dadurch unzufrieden stellende Ergebnisse liefern. Wenn Sie zum Beispiel mit einem Virtuellen Assistenten sprechen, werden Ihre gesprochenen Worte in Text konvertiert. Dieser Text wird analysiert. In der Zukunft sollen sowohl Text als auch Intonation bearbeitet und dadurch Bedeutung und Kontext verstanden werden.

Der größte Vorteil der emotionalen AI ist, dass die Interaktion zwischen Mensch und Maschine wachsen und sich weiterentwickeln wird. Wodurch sich das Verständnis beider Seiten eindeutig verbessern wird.

Die interessanteste Nutzung zur Erkennung und Stimulierung von Emotionen wird durch unsere täglichen virtuellen Assistenten eintreten. Zukünftige Versionen von Siri, Google Assistent, Alexa und Cortana werden Interaktionen je nach Emotion des Nutzers interpretieren.

Das iPhone X Kamerasystem und die Face ID Features haben die Türe für hochqualifizierte Emotionserkennung bei Smartphones geöffnet. Jetzt arbeitet die gesamte Industrie in Richtung der einfühlsamen Smartphones.

Chinas Top Smartphone Erzeuger Huawei arbeitet daran, seinen existierenden virtuellen Assistenten (welcher momentan 110 Millionen Nutzer betreut) durch AI die Emotionen seines Nutzers erkennen zu lassen.

Alle Firmen die Virtuelle Assistenten auf dem Markt haben, Apple, Amazon, Google, Samsung, arbeiten hart daran die Interaktion zwischen AI basierenden Emotionserkennern und Stimulaten zu verbessern.

Das Endresultat ist, dass Emotionale Maschinen das Endresultat laufend verändern. Das tun sie auf unterschiedlichste Art und Weise. Die wichtigste, sie verbessern die Kommunikation zwischen Menschen und den Systemen die das Geschäft anfeuern.

 

*Mike Elgan schreibt für Computerworld.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*