Menschen trainieren KI – oder ist es umgekehrt? 

Ein interdisziplinäres Team der Washington University in St. Louis versucht zu verstehen, wie sich das menschliche Verhalten beim Training von KI verändert. [...]

„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels
„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels

Eine neue interdisziplinäre Studie von Forschern der Washington University in St. Louis hat ein unerwartetes psychologisches Phänomen an der Schnittstelle zwischen menschlichem Verhalten und künstlicher Intelligenz (KI) aufgedeckt: Als Teilnehmern an einem Versuch gesagt wurde, dass sie eine KI für ein Verhandlungsspiel trainieren würden, passten sie ihr eigenes Verhalten aktiv an, um fairer und gerechter zu erscheinen – ein Phänomen mit möglicherweise massiven Auswirkungen für KI-Entwickler.

„Die Teilnehmer schienen die Motivation zu haben, KI für Fairness zu trainieren, was ermutigend ist. Aber andere Menschen könnten andere Ziele haben“, sagt Lauren Treiman, Doktorandin in der Abteilung für Computer- und Datenwissenschaften und Hauptautorin der Studie. „Die Entwickler sollten wissen, dass Menschen ihr Verhalten absichtlich ändern, wenn sie wissen, dass es zum Trainieren von KI verwendet wird.“

Die Co-Autoren der Studie sind Wouter Kool, Assistenzprofessor für Psychologie und Gehirnforschung in Arts & Sciences, und Chien-Ju Ho, Assistenzprofessor für Informatik und Ingenieurwissenschaften an der McKelvey School of Engineering. Kool und Ho sind Treimans Studienberater.

Die Studie umfasste fünf Experimente mit jeweils etwa 200 bis 300 Teilnehmern. Die Probanden wurden gebeten, das „Ultimatum Game“ zu spielen, eine Herausforderung, bei der sie mit anderen menschlichen Spielern oder einem Computer über kleine Geldbeträge (nur 1 bis 6 Dollar) verhandeln müssen. In einigen Fällen wurde ihnen gesagt, dass ihre Entscheidungen dazu dienen würden, einer künstlichen Intelligenz beizubringen, wie man das Spiel spielt.

Die Spieler, die dachten, sie würden die KI trainieren, waren durchweg eher bereit, einen fairen Anteil an der Auszahlung anzustreben, selbst wenn diese Fairness sie ein paar Dollar kostete. Interessanterweise änderte sich dieses Verhalten auch dann noch, als sie erfuhren, dass ihre Entscheidungen nicht mehr zum Trainieren der KI verwendet wurden. Dies deutet darauf hin, dass die Erfahrung der Gestaltung der Technologie einen dauerhaften Einfluss auf die Entscheidungsfindung hat. „Als Kognitionswissenschaftler sind wir an der Bildung von Gewohnheiten interessiert“, so Kool. „Dies ist ein tolles Beispiel, weil das Verhalten auch dann noch anhielt, als es nicht mehr gefragt war.“

Dennoch ist der Impuls, der hinter dem Verhalten steht, nicht ganz klar. Die Forscher fragten nicht nach spezifischen Motivationen und Strategien, und Kool erklärte, dass die Teilnehmer möglicherweise keine Verpflichtung verspürten, die KI ethischer zu gestalten. Es sei möglich, dass das Experiment einfach nur ein natürliches Verhalten hervorgerufen habe, Angebote abzulehnen, die ihnen unfair erschienen. „Sie denken vielleicht nicht wirklich über die zukünftigen Konsequenzen nach“, sagt er. 

„Die Studie unterstreicht das wichtige menschliche Element beim Training von KI“, so Ho, ein Informatiker, der die Beziehungen zwischen menschlichem Verhalten und maschinellen Lernalgorithmen untersucht. „Ein Großteil des KI-Trainings basiert auf menschlichen Entscheidungen“, sagt er. „Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein. In den letzten Jahren haben wir viele Probleme gesehen, die aus dieser Art von Diskrepanz zwischen KI-Training und Einsatz entstanden sind.“ 

Einige Gesichtserkennungs-Software erkenne zum Beispiel People of Color weniger genau, so Ho. „Das liegt zum Teil daran, dass die Daten, die zum Trainieren der KI verwendet werden, verzerrt und nicht repräsentativ sind“, sagt er.

Treiman führt nun Folgeexperimente durch, um einen besseren Einblick in die Motivationen und Strategien der Menschen zu bekommen, die KI trainieren. „Es ist sehr wichtig, die psychologischen Aspekte der Computerwissenschaft zu berücksichtigen“, so Treiman abschließend. 


Mehr Artikel

img-4
News

Schulungsbedarf in den Bereichen KI, Cybersecurity und Cloud

Der IT Skills & Salary Report 2024 unterstreicht den wachsenden Bedarf an Weiterbildung und Umschulung von Arbeitskräften, um mit dem technologischen Fortschritt Schritt zu halten. Künstliche Intelligenz steht bei Entscheidungsträgern ganz oben auf der Liste der Investitionsschwerpunkte, da hier die Team-Kompetenzen am niedrigsten eingestuft werden. […]

img-6
News

KI-gestützte Effizienzoptimierung im Lager

Die österreichische TeDaLoS GmbH, Anbieter von smarten Lagerstandsüberwachungssystemen, hat ein Kapital-Investment erhalten, mit dem das Unternehmen eine beschleunigte internationale Expansion und den Ausbau von KI-gestützten Lösungen zur Optimierung der Materialbewirtschaftung vorantreiben will. […]

Helmut Reich, Managing Director proALPHA Software Austria (c) Erich Reismann
Interview

ERP auf dem Weg zum Digital Twin

Die in einem ERP-System hinterlegten Daten spiegeln in der Regel die Wirklichkeit nur bedingt wider. Mit Hilfe der künstlichen Intelligenz soll sich das bald ändern. proALPHA entwickelt seine Kernapplikation im Zusammenspiel mit seiner schnell wachsenden ERP+-Familie in Richtung eines Digital Twin weiter. Das Ziel: die 1:1-Abbildung der realen Wirtschaftswelt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*