Immer öfter werden Bedienoberflächen so programmiert, dass sie den Gefühlszustand ihrer Nutzer einschätzen können. Aber nicht nur der emotionale Zustand oder die Stimmung des Nutzers werden erkannt. Auch wie das System mit dem Nutzer kommuniziert, kann stimuliert und beeinflusst werden. [...]
Ein im Jänner veröffentlichter Bericht von Gartner sagt voraus, dass in vier Jahren Ihre „Geräte mehr über Ihren emotionalen Zustand wissen, als Ihre eigene Familie“. Mittlerweile können Maschinen nicht nur Gefühle wie Glück, Überraschung, Wut, Traurigkeit, Angst und Ekel erkennen, sondern sind fähig 20 der, laut Psychologen in Menschen vorhandenen 27 unterschiedlichen Emotionen, wie Ehrfurcht, freudig überrascht und Hass zu unterscheiden.
Die University of Ohio entwickelte ein Programm, dass 21 Emotionen anhand von Gesichtsausdrücken auf Fotos erkennt. Das schockierende an der Sache? Die Forscher behaupten, das System erkenne die Emotionen besser als Menschen.
Es gibt gute Gründe wieso Unternehmen immer häufiger auf emotionale Betriebsoberflächen setzen.
Empathie steigert das Business
Die „Wirtschaft des Einfühlungsvermögens“ ist eine Bezeichnung für künstliche Intelligenz (AI), die Emotionen zu erkennen und stimulieren gelernt hat. Eine Errungenschaft, die den Kundenservice, virtuelle Assistenten, Roboter, Sicherheitsfaktoren, das Gesundheits- und Transportsystem nachhaltig beeinflussen und verändern wird.
93 % der Befragten einer Cogito Umfrage von Frost & Sullivan gaben an, dass eine Interaktion mit dem Kundendienst beeinflusst, wie das Unternehmen wahrgenommen wird. Empathie spielt dabei eine besonders wichtige Rolle.
Cogitos AI Software, welche auf den Verhaltensforschungen des MIT Human Dynamics Lab aufgebaut wurde, analysiert die emotionale Verfassung des Kunden und gibt ein Feedback an menschliche Call Center Agenten weiter. Dies ermöglicht den Mitarbeitern, sich besser in die Situation des Kunden einzufühlen.
Diese Art von Technologie gibt Call Center Mitarbeitern Empathie Superkräfte, was die öffentliche Wahrnehmung einer Firma grundlegend positiv beeinflussen kann.
Unternehmen wie Affectiva und Realeyes bieten cloud-basierende Lösungen, die Webcams nutzen, um Gesichtsausdrücke und die Herzfrequenz zu erkennen. Eine Bereich, in dem diese Technologie zur Anwendung kommt, ist die Marktforschung. Kunden sehen eine Werbung und die Technologie erkennt, wie Bild und Wörter der Werbung emotional wahrgenommen werden.
Diese Firmen versuchen ihr Wirkungsfeld zu vergrößern. Zum Beispiel im Gesundheitssektor. Hier könnten automatisierte Call Center Depressionen oder Schmerz in der Stimme eines Anrufers erkennen, ohne, dass die Probleme direkt benannt werden.
Roboter Forpheus, gebaut von Omron Automation (Japan) und im Jänner auf der CES gezeigt, spielt Ping-Pong. Teil seiner Fähigkeiten ist es, durch Lesen der Körpersprache seines Gegners, dessen Stimmung und Erfahrungslevel zu erkennen.
Der Sinn des Roboters ist es nicht Ping-Pong zu spielen, sondern die Zusammenarbeit zwischen Mensch und Roboter zu ermöglichen. Wenn beide „in Harmonie“ miteinander arbeiten steigert das nicht nur die Produktivität, sondern auch die Sicherheit am Arbeitsplatz. Durch das Lesen der Körpersprache eines Fabrikarbeiters, zum Beispiel, kann der Industrieroboter vorhersehen, wie und wohin sich Menschen bewegen.
Roboter wie Qihan Technologys Sanbot, SoftBank Robotics Pepper und Hondas 3E-A18 existieren um Menschen zu helfen. Sie fungieren als rollende Informationsstände auf Flughäfen, in Einkaufszentren, Hotels oder an anderen Orten. Sie wurden gebaut um menschliche Gefühle nachzuahmen und zu verstehen. So können sie zufriedenstellende Antworten auf jede gestellte Frage geben. Diese Roboter lesen die Körpersprache, erkennen Stimmmuster und Gesichtsausdrücke und „verstehen“ dadurch wie sich der Nutzer fühlt oder ob der Nutzer zum Beispiel verwirrt ist.
Ein weiterer großer und offensichtlicher Nutzungsbereich für „Emotionserkennung“ ist die Automobilindustrie. Mit Hilfe von biometrischen Sensoren, Kameras im Dashboard, Sitzen und Gurten, kann On-board AI erkennen ob der Fahrer gestresst oder zu müde ist um weiter zu fahren. Emotionserkennende Autos könnten Unfälle reduzieren und Versicherungspremieren vergünstigen. So arbeitet zum Beispiel Ford mit der EU zusammen, um ein System zu entwickeln.
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Emotionserkennung ist nicht nur die Analyse von Fotos, Videos oder gesprochener Sprache.
IBMs Watson hat eine „Ton Analyse“ die Emotionen, aber auch Sarkasmus in geschriebener Kommunikation erkennen kann.
Während die Anwendung von Emotionaler AI in Unternehmen bereits vielseitig genutzt wird, wird die Öffentlichkeit damit erst im Kunden- und öffentlichen Bereich in Berührung kommen.
Facebook erhielt vor Kurzem das Patent für „Emotionserkennende Selfie Filter“. Die Idee: Das Programm wählt die „Maske“ für das Selfie anhand der Emotion die am Foto erkannt wurde, automatisch. Ist die Person zum Beispiel unglücklich, wählt der Filter Cartoon Tränen aus. Eine Person die glücklich aussieht, erhält den „Glücklichen Panda“ Filter.
Das Videospiel Nevermind verwendet Biofeedback um die Stimmung des Spielers zu erkennen und das Schwierigkeitslevel anzupassen. Je ängstlicher der Spieler ist, desto schwieriger wir das Spiel. (Es nutzt eine Technologie von Affectiva.)
All diese Beispiele sind triviale Anwendungen. Aber sie gewöhnen die Öffentlichkeit an Software, die Emotionen erkennen kann.
In Großbritannien verwendet die Regierung den Dienst G-Cloud 10. Von FlyingBinary und Emrays entwickelt, hilft die Software, anhand von Social Media Posts und Kommentaren, den Allgemeinzustand der Bevölkerung abzutasten.
Menschen die in China leben, treffen zum ersten Mal in Schulen auf Emotions AI. Im März platzierte eine Schule in China Kameras in Klassenzimmern, welche durch AI den Gefühlszustand der Studenten misst. (Das System nimmt zudem die Anwesenheit auf und verfolgt was die Kinder zu jeder Zeit machen.) Es benotet Schüler danach, wie abgelenkt sie sind. (Eine Version von Orwell’s „Facecrime“). Sie müssen nicht nur Aufmerksam sein, sondern auch aufmerksam aussehen.
Emotion und Einfühlungsvermögen verbessern den Umsatz auf viele Arten und Weisen. Das ist die gute Eigenschaft dieser Technologie.
Hier kommt die großartige:
Emotion ist notwendig zur Kommunikation
AI und Roboter sind Maschinen. Aber keine Menschen.
Es ist ein weitverbreitendes Missverständnis, dass der Inhalt unserer Worte die Summe aller menschlichen Kommunikation ist. Menschen kommunizieren allerdings nicht nur mit Worten, sondern zusätzlich mit Intonation, Gesichtsausdrücken, Handgesten und Körpersprache.
Darum ist die Kommunikation via Email gefüllt mit Missverständnissen. Ohne nonverbale Hinweise, gehen mitgedachte Bedeutungen verloren.
In der kurzen Geschichte des Computers, gibt es einen steten Trend: Wenn Computer stärker werden, wird ein großer Teil dieser „Kraft“ in die Qualität der Interaktion zwischen Maschine und Nutzer gesteckt.
Vor nicht allzu langer Zeit, bestand die Nutzerfläche aus Schaltern, Lochkarten und Tonbändern. Der Mensch musste hart daran arbeiten, die Binärsprache des Computers zu lernen. Im Schnelldurchlauf ging es von der Befehlszeile, der Graphischen Benutzerfläche zum sprachgesteuerten Interface. Mit jeder Entwicklung arbeiten die Maschinen härter daran, die Benutzerflächen einfacher für die Menschen zu machen.
Das Problem der aktuellen sprachgesteuerten Benutzerflächen ist, dass sie nur mit den Wörtern, nicht aber mit den nonverbalen Hinweisen arbeiten und dadurch unzufrieden stellende Ergebnisse liefern. Wenn Sie zum Beispiel mit einem Virtuellen Assistenten sprechen, werden Ihre gesprochenen Worte in Text konvertiert. Dieser Text wird analysiert. In der Zukunft sollen sowohl Text als auch Intonation bearbeitet und dadurch Bedeutung und Kontext verstanden werden.
Der größte Vorteil der emotionalen AI ist, dass die Interaktion zwischen Mensch und Maschine wachsen und sich weiterentwickeln wird. Wodurch sich das Verständnis beider Seiten eindeutig verbessern wird.
Die interessanteste Nutzung zur Erkennung und Stimulierung von Emotionen wird durch unsere täglichen virtuellen Assistenten eintreten. Zukünftige Versionen von Siri, Google Assistent, Alexa und Cortana werden Interaktionen je nach Emotion des Nutzers interpretieren.
Das iPhone X Kamerasystem und die Face ID Features haben die Türe für hochqualifizierte Emotionserkennung bei Smartphones geöffnet. Jetzt arbeitet die gesamte Industrie in Richtung der einfühlsamen Smartphones.
Chinas Top Smartphone Erzeuger Huawei arbeitet daran, seinen existierenden virtuellen Assistenten (welcher momentan 110 Millionen Nutzer betreut) durch AI die Emotionen seines Nutzers erkennen zu lassen.
Alle Firmen die Virtuelle Assistenten auf dem Markt haben, Apple, Amazon, Google, Samsung, arbeiten hart daran die Interaktion zwischen AI basierenden Emotionserkennern und Stimulaten zu verbessern.
Das Endresultat ist, dass Emotionale Maschinen das Endresultat laufend verändern. Das tun sie auf unterschiedlichste Art und Weise. Die wichtigste, sie verbessern die Kommunikation zwischen Menschen und den Systemen die das Geschäft anfeuern.
*Mike Elgan schreibt für Computerworld.
Be the first to comment