Die von Wirtschaft und Militär vorangetriebene Entwicklung immer intelligenterer autonomer Systeme ist mit großen Risiken verbunden, warnt der Informatiker Steve Omohundro. [...]
Wie der Gründer des Think Tanks Self-Aware Systems in einer aktuellen Studie betont, können schon kleine Fehler im Design asoziales oder gefährliches Verhalten auslösen. Als einfaches Beispiel dient ihm ein Schachroboter, der aufgrund seiner Programmierung möglichst oft gegen gute Gegner gewinnen will – und aus dieser Motivation heraus beispielsweise cyberkriminelles Verhalten an den Tag legen könnte.
Das angesichts von Sicherheitsbedenken häufig von Robotikern bemühte Argument, man könne so eine Maschine einfach ausschalten, sieht Omohundro eher als Teil des Problems. „Sehen sie das aus dem Blickwinkel des Schachroboters. Eine Zukunft, in der er ausgeschaltet ist, ist eine Zukunft, in der er keine Schachspiele gewinnt“, schreibt er im Journal of Experimental & Theoretical Artificial Intelligence. In letzter Konsequenz könnte der Roboter versuchen, zum Selbstschutz den Robotiker zuerst auszuschalten.
„Schädliche Systeme mögen auf den ersten Blick schwieriger zu entwickeln oder weniger leistungsfähig als sichere Systeme scheinen. Leider ist das Gegenteil der Fall“, warnt Omohundro. Damit meint er aber nicht nur, dass Roboter mit Programmfunktionen, die Sadismus, Gier oder Mord nützlich erscheinen lassen, auch zu solchem Verhalten neigen werden. Besonders hebt er den Fall schlampig oder zu einfach programmierter Systeme hervor. Hier ist das Beispiel eben der Schachroboter, der einfach nur darauf programmiert ist, möglichst oft gegen möglichst starke Gegner gewinnen zu wollen.
Ein solcher Roboter würde sich sicher spielerisch verbessern wollen. Dazu müsste er beispielsweise Lehrmeister anstellen, zudem könnte das System wohl immer mehr Rechenleistung vertragen. Wenn die Programmierung das nicht sauber unterbindet, würde der Schachroboter sich mit allen denkbaren Mitteln um Ressourcen bemühen. Das könnte beispielsweise virtuellen Bankraub umfassen, um mit dem Geld Schachlehrer zu bezahlen, aber auch das Hacken von Computern, um deren Rechenleistung selbst zu nutzen.
Falls ein autonomes System kriminell wird, würde sein Schöpfer es womöglich abschalten wollen. Doch das wäre für den angesprochenen Schachroboter ganz und gar nicht erstrebenswert – denn ist er einmal aus, kann er nicht spielen und somit nicht gewinnen. Daher würde das System sich vor der Abschaltung schützen wollen und das mit allen Mitteln, die im Rahmen seiner Programmierung nicht explizit verboten oder eingeschränkt sind. Hat die Tötung von Menschen für den Schachroboter keinerlei Bedeutung, wäre er wohl gewillt, notfalls seinen Programmierer zuerst auszuschalten und würde somit zum Mörder – obwohl und weil es sich um ein sehr einfaches System handelt. (pte)
Be the first to comment