Menschen trainieren KI – oder ist es umgekehrt? 

Ein interdisziplinäres Team der Washington University in St. Louis versucht zu verstehen, wie sich das menschliche Verhalten beim Training von KI verändert. [...]

„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels
„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels

Eine neue interdisziplinäre Studie von Forschern der Washington University in St. Louis hat ein unerwartetes psychologisches Phänomen an der Schnittstelle zwischen menschlichem Verhalten und künstlicher Intelligenz (KI) aufgedeckt: Als Teilnehmern an einem Versuch gesagt wurde, dass sie eine KI für ein Verhandlungsspiel trainieren würden, passten sie ihr eigenes Verhalten aktiv an, um fairer und gerechter zu erscheinen – ein Phänomen mit möglicherweise massiven Auswirkungen für KI-Entwickler.

„Die Teilnehmer schienen die Motivation zu haben, KI für Fairness zu trainieren, was ermutigend ist. Aber andere Menschen könnten andere Ziele haben“, sagt Lauren Treiman, Doktorandin in der Abteilung für Computer- und Datenwissenschaften und Hauptautorin der Studie. „Die Entwickler sollten wissen, dass Menschen ihr Verhalten absichtlich ändern, wenn sie wissen, dass es zum Trainieren von KI verwendet wird.“

Die Co-Autoren der Studie sind Wouter Kool, Assistenzprofessor für Psychologie und Gehirnforschung in Arts & Sciences, und Chien-Ju Ho, Assistenzprofessor für Informatik und Ingenieurwissenschaften an der McKelvey School of Engineering. Kool und Ho sind Treimans Studienberater.

Die Studie umfasste fünf Experimente mit jeweils etwa 200 bis 300 Teilnehmern. Die Probanden wurden gebeten, das „Ultimatum Game“ zu spielen, eine Herausforderung, bei der sie mit anderen menschlichen Spielern oder einem Computer über kleine Geldbeträge (nur 1 bis 6 Dollar) verhandeln müssen. In einigen Fällen wurde ihnen gesagt, dass ihre Entscheidungen dazu dienen würden, einer künstlichen Intelligenz beizubringen, wie man das Spiel spielt.

Die Spieler, die dachten, sie würden die KI trainieren, waren durchweg eher bereit, einen fairen Anteil an der Auszahlung anzustreben, selbst wenn diese Fairness sie ein paar Dollar kostete. Interessanterweise änderte sich dieses Verhalten auch dann noch, als sie erfuhren, dass ihre Entscheidungen nicht mehr zum Trainieren der KI verwendet wurden. Dies deutet darauf hin, dass die Erfahrung der Gestaltung der Technologie einen dauerhaften Einfluss auf die Entscheidungsfindung hat. „Als Kognitionswissenschaftler sind wir an der Bildung von Gewohnheiten interessiert“, so Kool. „Dies ist ein tolles Beispiel, weil das Verhalten auch dann noch anhielt, als es nicht mehr gefragt war.“

Dennoch ist der Impuls, der hinter dem Verhalten steht, nicht ganz klar. Die Forscher fragten nicht nach spezifischen Motivationen und Strategien, und Kool erklärte, dass die Teilnehmer möglicherweise keine Verpflichtung verspürten, die KI ethischer zu gestalten. Es sei möglich, dass das Experiment einfach nur ein natürliches Verhalten hervorgerufen habe, Angebote abzulehnen, die ihnen unfair erschienen. „Sie denken vielleicht nicht wirklich über die zukünftigen Konsequenzen nach“, sagt er. 

„Die Studie unterstreicht das wichtige menschliche Element beim Training von KI“, so Ho, ein Informatiker, der die Beziehungen zwischen menschlichem Verhalten und maschinellen Lernalgorithmen untersucht. „Ein Großteil des KI-Trainings basiert auf menschlichen Entscheidungen“, sagt er. „Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein. In den letzten Jahren haben wir viele Probleme gesehen, die aus dieser Art von Diskrepanz zwischen KI-Training und Einsatz entstanden sind.“ 

Einige Gesichtserkennungs-Software erkenne zum Beispiel People of Color weniger genau, so Ho. „Das liegt zum Teil daran, dass die Daten, die zum Trainieren der KI verwendet werden, verzerrt und nicht repräsentativ sind“, sagt er.

Treiman führt nun Folgeexperimente durch, um einen besseren Einblick in die Motivationen und Strategien der Menschen zu bekommen, die KI trainieren. „Es ist sehr wichtig, die psychologischen Aspekte der Computerwissenschaft zu berücksichtigen“, so Treiman abschließend. 


Mehr Artikel

News

So werden Unternehmen autonom und resilient

Ein Unternehmen, in dem viele Prozesse automatisiert ablaufen, ohne menschliche Aufsicht, und das sich dabei kontinuierlich selbst optimiert? Fortgeschrittene KI und Automatisierungswerkzeuge liefern die dafür notwendige technische Grundlage, doch die Umsetzung ist in der Regel mit einigen Herausforderungen verbunden. […]

News

Grundlegende Metriken der Datenwiederherstellung: RPO und RTO verständlich gemacht

Wenn es um die Geschäftskontinuität geht, stechen zwei Schlüsselmetriken hervor: Recovery Point Objective (RPO) und Recovery Time Objective (RTO). Oft werden diese verwechselt oder die Diskussion dreht sich um RPO versus RTO. Beide Metriken sind jedoch für die Entwicklung effektiver Datenschutzstrategien und die Minimierung von Unterbrechungen und Datenverlusten unerlässlich. […]

Drohnen, die autonom und ohne GPS navigieren können, wären in der Lage kritische Infrastruktur wie Brücken oder Strommasten selbstständig zu inspizieren. (c) Fikri Rasyid / unsplash
News

Wie Drohnen autonom fliegen lernen 

Von wirklich selbstständigen Robotern, die durch eine komplexe und sich verändernde Umwelt navigieren können, sind wir noch weit entfernt. Neue Ansätze mit KI bieten eine Chance, diese Vorstellung ein Stück weit Realität werden zu lassen. Jan Steinbrener experimentiert an der Universität Klagenfurt mit Drohnen, die genau das versuchen. […]

Christina Decker, Director Strategic Channels Europe bei Trend Micro (c) Trend Micro
Kommentar

Wie der Channel die tickende Zeitbombe „Compliance-Risiko“ entschärfen kann

Cybersicherheitsregulatoren hatten ein geschäftiges Jahr 2024. Zuerst kam die NIS2-Richtlinie, deren Umsetzungsfrist Mitte Oktober ablief. Nur wenige Monate später trat in der gesamten EU der lang erwartete Digital Operational Resilience Act (DORA) in Kraft. Beide Regelwerke wurden dringend benötigt, haben aber auch enormen Druck auf Unternehmen in der Region ausgeübt. Besonders KMU spüren diesen Druck. […]

Kommentar

Cyber Dominance: Digitale Abhängigkeit ist das neue Geschäftsrisiko

Bei Cyber Dominance geht es um die Fähigkeit von Herstellern digitaler Produkte, auch nach dem Kauf dauerhaft Zugriff auf Systeme und Informationen ihrer Kunden zu behalten. Eine Form der Kontrolle, die tief in technische Infrastrukturen eingreift – oft unbemerkt und ungefragt. Diese Art der digitalen Abhängigkeit ist längst Realität – und sie ist eines der größten unterschätzten Geschäftsrisiken unserer Zeit. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*