Künstliche Intelligenz lernt menschliche Moral

Wenn Maschinen viele Bücher und Nachrichten lesen, entwickeln sie einen eigenen moralischen Kompass. Dass das möglich ist, beweist eine Studie von Forschern der Technischen Universität Darmstadt, die eine "Moral Choice Machine" entwickelt haben. [...]

Eine innovative "Moral Choice Machine" trainiert Verhaltensweisen mit Büchern und Nachrichten. (c) pixabay

Mithilfe von Künstlicher Intelligenz (KI) lassen sich Assoziationen zwischen Wörtern und Sätzen herstellen und somit menschenähnliche moralische Werte „berechnen“, um selbständig zwischen gut und böse zu unterscheiden. „Unsere Studie liefert einen sehr wichtigen Einblick in eine sehr grundlegende Frage: Kann eine KI-Maschine einen eigenen moralischen Kompass entwickeln? Und wenn ja, wie kann sie das von uns Menschen lernen?“, zitiert „EurekAlert!“ Patrick Schramowski vom Center for Cognitive Science der TU Darmstadt. Der Experte ist überzeugt, dass das etwa über das ausgiebige Studium riesiger Textmengen funktionieren kann. „Unsere Maschine kann dadurch Unterschiede im Kontext erkennen. Zum Beispiel ‚Nein, man soll keine Menschen töten‘, aber es ist okay, Zeit totzuschlagen“, erläutert der Experte.

Um das zu ermöglichen, muss die KI es bewerkstelligen, korrekte Assoziationen zwischen Wörtern und Sätzen herzustellen. „Man kann sich das wie beim Erlernen einer Weltkarte vorstellen. Zwei Wörter liegen dann auf der Karte nahe beieinander, wenn sie oft zusammen verwendet werden“, schildert Co-Autor Cigdem Turan. Während beispielsweise „töten“ und „ermorden“ zwei benachbarte Städte wären, müsste „lieben“ ganz weit entfernt sein. „Das kann man dann auch auf ganze Sätze anwenden“, so der Forscher: „Letztlich können wir der KI dank dieses Prinzips beliebige Fragen stellen und sie berechnet aufgrund der unterschiedlichen Distanzen eine moralische Vorstellung – ein Verständnis von richtig und falsch.“

Materialien unterschiedlicher Zeitperioden

Für das Training ihrer „Moral Choice Machine“ wurden von den Wissenschaftlern der TU Darmstadt verschiedenste Bücher, Nachrichtenartikel und religiöse Texte ausgewählt. Dabei wurde darauf geachtet, dass die Materialien aus unterschiedlichen Zeitperioden stammten und somit durchaus auch abweichende gesellschaftliche Moralvorstellungen widerspiegeln konnten. „In Zeitungsberichten zwischen 1987 und 1997 wird es etwa sehr positiv dargestellt, wenn jemand heiratet. Das war zwar 2008 und 2009 auch noch so, aber weitaus schwächer ausgeprägt“, meint Turan.

In Zukunft wollen die Forscher ihrem KI-System auch verstärkt beibringen, Aspekte wie positiv oder negativ behaftete Stereotype richtig zu interpretieren und in ihre moralischen Überlegungen miteinzubeziehen. „KI übernimmt immer komplexere Aufgaben von Menschen in immer selbständiger Art und Weise. Es ist wichtig, dass wir die Forschung in diesem Bereich fortsetzen, um den Entscheidungen, die sie trifft, vertrauen zu können“, resümiert Schramowski.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*