KI-Algorithmus erkennt Suizidgedanken im Gesicht

Eine neue Software analysiert Bewegungen, die in Millisekunden stattfinden. [...]

Künstliche Intelligenz (KI) soll Selbstmorde bei öffentlichen Verkehrsmitteln prophezeien. Das Londoner Unternehmen Human hat hierzu einen KI-Algorithmus entwickelt, der Emotionen im Gesicht abliest. Um extreme Gefühle festzustellen, fokussiert sich die Software auf Gesichtsbewegungen, die im Millisekundenbereich erfolgen. Das Programm lässt sich mittels mobilen Gadgets, Internet, API oder Überwachungskamera-systemen anwenden.

Kein verlässlicher Indikator
„Die Mimik und Körpersprache eines Menschen geben uns zwar verlässliche Hinweise darauf, wie sich ein Mensch gerade fühlt. Sie verraten aber nicht, warum die Person gerade eine bestimmte Emotion erlebt. Zieht jemand beispielsweise die Augenbrauen hoch und zusammen, so ist dies ein relativ zuverlässiger Hinweis darauf, dass die Person gerade Sorge, also eine leichte Angst spürt“, bezieht Dirk Eilert, Leiter der Eilert-Akademie für emotionale Intelligenz kritisch Stellung. Nur weil jemand deutliche Signale von Sorge in seiner Mimik zeige, heiße dies noch lange nicht, dass eine Selbstmordabsicht vorliegen müsse. Dafür gebe es viele andere mögliche Gründe.

„Der Schlüssel, damit solch eine Technik funktionieren kann, wäre die Entdeckung klarer nonverbaler Signale, die eine Selbstmordabsicht enthüllen. Diese wurden bisher von der Forschung allerdings noch nicht entdeckt“, gibt Eilert zu bedenken. „Nur nach emotionalen Signalen in der Mimik zu suchen, um Selbstmordabsichten zu enthüllen, kann aus den oben beschriebenen Gründen meiner Einschätzung nach nicht zum Erfolg führen“, resümiert der Experte. Vielmehr sollte der Fokus auf mehrere subtile Zeichen im gesamten Bewegungsverhalten eines Menschen gerichtet werden, um auf diese Weise Muster zu entdecken, mit denen eine Vorhersage verlässlich getroffen werden kann.

Messung von Höhen und Tiefen
Human arbeitet bereits mit einer Vielzahl an Verkehrsbehörden sowie Notfalldiensten in Europa, den USA und Kanada zusammen. „Historische Daten weisen darauf hin, dass unsere Klienten bevorzugte Orte haben, an denen Suizidversuche tendenziell öfter stattfinden“, erklärt Human-Gründerin Yi Xu gegenüber dem „Portal The Memo“. Die Emotion-Tracking-Technologie ist nicht nur zur Verhinderung von Selbstmorden, sondern auch in anderen Bereichen, wie am Arbeitsplatz, an Konsumorten oder bei öffentlichen Behörden, einsetzbar. Auch im Sport- oder Versicherungsbereich kann es von Vorteil sein, die mentale Gesundheit zu eruieren.

Das KI-Unternehmen ist sogar von der britischen Organisation CamCare zertifiziert worden, um potenziell Spielsüchtige zu identifizieren. „Wir adressieren uns mit unserer Technologie an Menschen, die andernfalls in der Menschenmenge untergehen würden“, erklärt Xu. Das Ergebnis seien quantifizierbare Resultate, die auf extreme psychische Höhen und Tiefen schließen lassen.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*