Wenn es um ein möglichst gutes Zusammenarbeiten von Menschen und Robotern geht, dürfen Letztere offensichtlich keineswegs zu perfekt programmiert sein. Wie aus einer aktuellen Untersuchung von Computerwissenschaftlern der University of Lincoln hervorgeht, fällt es Menschen nämlich eher schwer, sich mit künstlichen Gehilfen anzufreunden, wenn diese ihre Aufgaben erledigen, ohne dabei jemals einen Fehler zu begehen. Die Forscher raten deshalb dazu, in Zukunft mehr Roboter zu entwickeln, die auch menschliche Schwächen zeigen, Fehler machen und hin und wieder Emotionen wie Langeweile oder Müdigkeit ausdrücken. [...]
„Die menschliche Wahrnehmung von Robotern ist sehr oft durch Science-Fiction geprägt. Es gibt aber einen realen Konflikt zwischen derartigen Vorstellungen von überlegenen und distanzierten Maschinen und dem Ziel einer bestmöglichen Mensch-Roboter-Interaktion“, erklärt PhD-Student Mriganka Biswas von der School of Computer Science der University of Lincoln gegenüber „BBC News“. Schon vorangegangene Tests hätten gezeigt, dass es Menschen schwer falle, eine Beziehung zu zu perfekt agierenden Maschinen aufzubauen. „Wie sollen wir erfolgreich mit etwas zusammenarbeiten, das perfekter ist als wir selbst?“, bringt Biswas die zentrale Frage auf den Punkt.
Um diesen Zusammenhang genauer unter die Lupe zu nehmen, haben der Computerwissenschaftler und seine Kollegen im Labor ausführliche Testreihen mit drei unterschiedlichen Robotertypen durchgeführt. Der erste Roboter hört auf den Namen „Erwin“ (Emotional Robot With Intelligent Network) und kann fünf verschiedene Emotionen ausdrücken. Der zweite namens „Keepon“ ist eine kleine gelbe Maschine, die ursprünglich für soziale Interaktionen mit Kindern entwickelt worden ist. Der dritte Roboter ist der per 3D-Druck hergestellte humanoide Roboter „Marc“ (Multi-Actuated Robotic Companion).
Bei allen drei Robotern wurde die Programmierung durch sogenannte „kognitive Neigungen“ ergänzt, die dazu führten, dass diese Fehler machen und menschenähnliche Emotionen wie Müdigkeit, Langeweile oder Aufregung ausdrücken können. „Unsere Tests haben gezeigt, dass gewisse Makel und Charakterschwächen hilfreich sein können, damit Menschen ihr künstliches Gegenüber besser verstehen lernen, sich stärker damit verbunden fühlen und leichter mit ihm interagieren können“, fasst Biswas die Ergebnisse zusammen. Diese Schwächen könnten das zukünftige Roboterdesign grundlegend verändern, so der Forscher.
Dass es unter Umständen von Vorteil sein kann, wenn Technologien, die auf Künstlicher Intelligenz basieren, mit einigen eingebauten Schwächen daherkommen, hat erst unlängst der Internetkonzern Google gezeigt. Dort musste sich der Entwicklungsleiter im Bereich selbstfahrender Autos unlängst eingestehen, dass es besser wäre, wenn diese nicht so streng auf die Straßenverkehrsordnung achten und – ganz wie das menschliche Vorbild – hin und wieder auch Kurven schneiden und Sperrlinien überfahren. Dadurch soll letztendlich die Zahl der Unfälle deutlich reduziert werden, so die Hoffnung der Google-Experten. (pte)
Be the first to comment