Künstliche Intelligenz wird emotional

Maschinen, die "menschlich" interagieren, können uns das Leben schon bald enorm erleichtern. Insbesondere zwei Branchen zählen hier zu den Vorreitern. [...]

Dank künstlicher Intelligenz (AI) und Affective Computing werden künftig immer mehr intelligente Geräte in der Lage sein, menschliche Gefühle und Stimmungen anhand bestimmter Daten und Fakten zu erfassen und Situationen entsprechend zu analysieren.
Schon heute erfreuen sich „intelligente Agenten“ wie die virtuellen Assistenten zunehmender Beliebtheit. Hierzu zählen Siri von Apple, Cortana von Microsoft sowie Google Assistant. Sie alle nutzen bewährte technologische Ansätze wie natürliche Sprachverarbeitung und verstehen natürlich gesprochene Sprache, sind aber noch nicht imstande, menschliche Gefühle zu erkennen. Künstliche emotionale Intelligenz („Emotion AI“) könnte hier den Durchbruch bringen. Im nächsten Schritt müssten die Systeme die Gefühlslage des Anwenders erkennen und entsprechend reagieren. Zugleich sollten sie aber auch menschlicher erscheinen, um eine komfortablere, natürlichere Interaktion mit dem Nutzer zu ermöglichen.
Angemessene Reaktion auf menschliche Gefühle
Intelligente Agenten – das können alle Geräte sein, die ihre Umgebung über Sensoren wahrnehmen und mittels Aktuatoren auf sie reagieren. Roboter in Form persönlicher Assistenten (PAR) wie beispielsweise Sanbot von Qihan Technology oder Pepper von SoftBank Robotics werden auf „Menschlichkeit“ trainiert, indem sie lernen, verschiedene Gefühlszustände zu unterscheiden und entsprechend zu reagieren. Ziel ist es, dass die PARs sowohl per Körpersprache als auch verbal angemessen auf die Emotionen der Menschen reagieren, mit denen sie im Kontakt sind. Erkennt der Roboter Pepper zum Beispiel, dass sein Gegenüber von der Interaktion enttäuscht ist, sollte seine Reaktion eine Entschuldigung ausdrücken.
Emotion AI – die ersten Schritte sind getan
Die intelligenten Geräte der Zukunft können die Gefühle ihrer Anwender deutlich besser analysieren und auf sie reagieren. Diese Fähigkeiten verdanken sie AI-Systemen, die die Mimik und den verbalen Ausdruck bestimmter Emotionen mittels Deep-Learning-Technologien messen. Diese Systeme spielen eine immer wichtigere Rolle bei der Interaktion zwischen Mensch und Maschine.
Die ersten Schritte sind bereits getan: So setzt das Videospiel „Nevermind“ auf eine emotionsbasierte „Biofeedback“-Technologie von Affectiva und Intel, um die Stimmung des Spielers zu ermitteln und das Niveau und den Schwierigkeitsgrad entsprechend anzupassen. Je weiter ein Spieler in die virtuelle Welt eindringt, desto düsterer wird die Stimmung und desto schwieriger werden die Logikrätsel. Das Horror-Game spürt, wann der Spieler Angst hat oder sich entspannt, und passt das Niveau der jeweiligen Gefühlslage an.
Diese Technologie wird auch in anderen Bereichen eingesetzt. So wird gerade an neuen In-Car-Systemen gearbeitet, die das Reaktionsvermögen der Bremssysteme auf das wahrgenommene Stresslevel des Fahrers anpassen. Erkennt ein damit ausgestatteter Wagen beim Fahrer eine angespannte Stimmung, erhöht er automatisch die Reaktionsfähigkeit der Bremsen, um zu verhindern, dass das Auto beim Heranfahren an eine belebte Kreuzung ruckartig zum Stehen kommt.
Sowohl das Videospiel als auch das Fahrzeug nutzen Kameras und eine AI-basierte Emotion-Tracking-Software, um Emotionen in Echtzeit zu messen.
Emotion AI im Gesundheitswesen und der Autoindustrie
Die Automobilindustrie und das Gesundheitswesen zählen zu den ersten Branchen, die den Einsatz von Funktionen prüfen, mit denen sich Gefühle messen lassen.
Wie das obige Beispiel zeigt, loten die Autohersteller zurzeit die Verwendung von Emotion-Detection-Systemen in Fahrzeugen aus. Indem sie die Stimmung der Person am Steuer erfassen, können die Systeme auf Wut, Frustration, Müdigkeit oder Anspannung reagieren und damit die Sicherheit im Straßenverkehr erhöhen.
Im Bereich Healthcare könnten tragbare Geräte die psychische Gesundheit der Patienten rund um die Uhr messen und notfalls die Ärzte oder das Pflegepersonal benachrichtigen. Die „Wearables“ könnten alleinlebenden älteren Menschen oder Kindern dabei helfen, ihre mentale Verfassung zu überwachen. Überdies könnten Ärzte oder Pflegepersonal mentale Muster leichter erkennen und entscheiden, wann und wie sie mit ihren Patienten kommunizieren.
Die Technologien, die zurzeit eingesetzt werden, um Gefühle zu erkennen und auf sie zu reagieren, sind überwiegend proprietär und auf einige, wenige Anwendungen zugeschnitten. Auch zahlreiche global agierende Marken haben diese Technologien in den letzten Jahren für Studien im Bereich Produkt- und Markenwahrnehmung verwendet. Doch können wir davon ausgehen, dass sich die großen Technologie- und Medienunternehmen in den nächsten zwei Jahren zusammentun werden, um diesen Bereich auszubauen und Lösungen anzubieten, die unser Leben schon bald spürbar verbessern werden.
* Annette Zimmermann ist Research Director bei Gartner Research.

Mehr Artikel

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*