Verhör per Computer-Avatar funktioniert

Computer-Avatare können Verhöre effektiver machen, allerdings reicht dabei ein menschliches Aussehen nicht aus. Die Befragten müssen auch glauben, dass der Avatar von einem Menschen gesteuert wird. [...]

Das hat die Studie „Interviewing Suspects with Avatars: Avatars Are More Effective When Perceived as Human“ von Psychologen der Universität Twente ergeben. Denn nur dann kommen Lügner ausreichend ins Schwitzen, dass es eine klar messbare Erhöhung der Hautleitfähigkeit gibt. Das dürfte den Forschern zufolge eine wesentliche Herausforderung bei der Entwicklung automatisierter Lügendetektoren beispielsweise für die Grenzsicherung sein.

Regierungen und Behörden haben großes Interesse an automatisierten Systemen, die schnell und zuverlässig Täuschung erkennen können. Denn das wäre beispielsweise für Flughafensicherheit oder den Grenzschutz interessant. Der in „Frontiers in Psychology“ veröffentlichten Studie zufolge dürfte es für solche Systeme entscheidend sein, ob Befragte glauben, dass sie es letztlich doch mit einem Menschen zu tun haben. Darauf deuten Versuche hin, bei denen Testpersonen den virtuellen Avatar „Brad“ belügen mussten, ohne zu wissen, ob dahinter ein Mensch steht oder nicht.

Die 79 Probanden waren bei dem Versuch zu einer Täuschung verleitet worden, ehe sie sich Brads Befragung bei gleichzeitiger Messung der elektrodermalen Aktivität stellen mussten. Diese kann theoretisch zeigen, ob jemand lügt. Bei jenen Testpersonen, die angenommen haben, dass Brad von einem Menschen gesteuert wird, hat das auch funktioniert. Bei denen, die Brad einfach für eine Maschine halten, lieferte die Messung keine schlüssigen Ergebnisse. Diese Probanden konnten den Lügendetektor also täuschen – obwohl Brad beim Experiment eigentlich von einem Forscher gesteuert wurde.

„Avatare sind effektiver, wenn der Befragte sie als Menschen sieht“, schließt daher Elze Ufkes, Psychologieprofessor an der Universität Twente. Allerdings betont er, dass das Experiment nur ein erster Schritt war. Denn ob die Probanden Brad als Mensch oder Maschine gesehen haben, lag nur an ihnen. Als nächstes sollen Tests folgen, bei denen Testpersonen unter anderem gezielt manipuliert werden, um hinter Brad einen Menschen zu vermuten. Eben das müssten schließlich automatisierte Lügendetektoren machen. Daher ist die Frage, ob es einen Unterschied macht, ob jemand sie von sich aus für Menschen-gesteuert hält oder erst aufgrund einer Täuschung. (pte)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*