Informatiker warnt vor intelligenten Schachrobotern

Die von Wirtschaft und Militär vorangetriebene Entwicklung immer intelligenterer autonomer Systeme ist mit großen Risiken verbunden, warnt der Informatiker Steve Omohundro. [...]

Wie der Gründer des Think Tanks Self-Aware Systems in einer aktuellen Studie betont, können schon kleine Fehler im Design asoziales oder gefährliches Verhalten auslösen. Als einfaches Beispiel dient ihm ein Schachroboter, der aufgrund seiner Programmierung möglichst oft gegen gute Gegner gewinnen will – und aus dieser Motivation heraus beispielsweise cyberkriminelles Verhalten an den Tag legen könnte.

Das angesichts von Sicherheitsbedenken häufig von Robotikern bemühte Argument, man könne so eine Maschine einfach ausschalten, sieht Omohundro eher als Teil des Problems. „Sehen sie das aus dem Blickwinkel des Schachroboters. Eine Zukunft, in der er ausgeschaltet ist, ist eine Zukunft, in der er keine Schachspiele gewinnt“, schreibt er im Journal of Experimental & Theoretical Artificial Intelligence. In letzter Konsequenz könnte der Roboter versuchen, zum Selbstschutz den Robotiker zuerst auszuschalten.

„Schädliche Systeme mögen auf den ersten Blick schwieriger zu entwickeln oder weniger leistungsfähig als sichere Systeme scheinen. Leider ist das Gegenteil der Fall“, warnt Omohundro. Damit meint er aber nicht nur, dass Roboter mit Programmfunktionen, die Sadismus, Gier oder Mord nützlich erscheinen lassen, auch zu solchem Verhalten neigen werden. Besonders hebt er den Fall schlampig oder zu einfach programmierter Systeme hervor. Hier ist das Beispiel eben der Schachroboter, der einfach nur darauf programmiert ist, möglichst oft gegen möglichst starke Gegner gewinnen zu wollen.

Ein solcher Roboter würde sich sicher spielerisch verbessern wollen. Dazu müsste er beispielsweise Lehrmeister anstellen, zudem könnte das System wohl immer mehr Rechenleistung vertragen. Wenn die Programmierung das nicht sauber unterbindet, würde der Schachroboter sich mit allen denkbaren Mitteln um Ressourcen bemühen. Das könnte beispielsweise virtuellen Bankraub umfassen, um mit dem Geld Schachlehrer zu bezahlen, aber auch das Hacken von Computern, um deren Rechenleistung selbst zu nutzen.

Falls ein autonomes System kriminell wird, würde sein Schöpfer es womöglich abschalten wollen. Doch das wäre für den angesprochenen Schachroboter ganz und gar nicht erstrebenswert – denn ist er einmal aus, kann er nicht spielen und somit nicht gewinnen. Daher würde das System sich vor der Abschaltung schützen wollen und das mit allen Mitteln, die im Rahmen seiner Programmierung nicht explizit verboten oder eingeschränkt sind. Hat die Tötung von Menschen für den Schachroboter keinerlei Bedeutung, wäre er wohl gewillt, notfalls seinen Programmierer zuerst auszuschalten und würde somit zum Mörder – obwohl und weil es sich um ein sehr einfaches System handelt. (pte)


Mehr Artikel

Oliver Köth, Chief Technology Officer, NTT DATA DACH (c) NTT DATA
News

GenAI-Avatare als Webbereiter für die Zukunft

Der Blick in die Zukunft gleicht oftmals einem Blick in die Glaskugel. Dennoch wollen und müssen Unternehmen wissen, was auf sie zukommt, um sich optimal auf neue Herausforderungen einstellen zu können. Generative KI und damit entwickelte Avatare können dabei helfen, indem sie völlig neue Einblicke ermöglichen. NTT DATA beantwortet die wichtigsten Fragen rund um die Methode. ​ […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*