Menschen trainieren KI – oder ist es umgekehrt? 

Ein interdisziplinäres Team der Washington University in St. Louis versucht zu verstehen, wie sich das menschliche Verhalten beim Training von KI verändert. [...]

„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels
„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels

Eine neue interdisziplinäre Studie von Forschern der Washington University in St. Louis hat ein unerwartetes psychologisches Phänomen an der Schnittstelle zwischen menschlichem Verhalten und künstlicher Intelligenz (KI) aufgedeckt: Als Teilnehmern an einem Versuch gesagt wurde, dass sie eine KI für ein Verhandlungsspiel trainieren würden, passten sie ihr eigenes Verhalten aktiv an, um fairer und gerechter zu erscheinen – ein Phänomen mit möglicherweise massiven Auswirkungen für KI-Entwickler.

„Die Teilnehmer schienen die Motivation zu haben, KI für Fairness zu trainieren, was ermutigend ist. Aber andere Menschen könnten andere Ziele haben“, sagt Lauren Treiman, Doktorandin in der Abteilung für Computer- und Datenwissenschaften und Hauptautorin der Studie. „Die Entwickler sollten wissen, dass Menschen ihr Verhalten absichtlich ändern, wenn sie wissen, dass es zum Trainieren von KI verwendet wird.“

Die Co-Autoren der Studie sind Wouter Kool, Assistenzprofessor für Psychologie und Gehirnforschung in Arts & Sciences, und Chien-Ju Ho, Assistenzprofessor für Informatik und Ingenieurwissenschaften an der McKelvey School of Engineering. Kool und Ho sind Treimans Studienberater.

Die Studie umfasste fünf Experimente mit jeweils etwa 200 bis 300 Teilnehmern. Die Probanden wurden gebeten, das „Ultimatum Game“ zu spielen, eine Herausforderung, bei der sie mit anderen menschlichen Spielern oder einem Computer über kleine Geldbeträge (nur 1 bis 6 Dollar) verhandeln müssen. In einigen Fällen wurde ihnen gesagt, dass ihre Entscheidungen dazu dienen würden, einer künstlichen Intelligenz beizubringen, wie man das Spiel spielt.

Die Spieler, die dachten, sie würden die KI trainieren, waren durchweg eher bereit, einen fairen Anteil an der Auszahlung anzustreben, selbst wenn diese Fairness sie ein paar Dollar kostete. Interessanterweise änderte sich dieses Verhalten auch dann noch, als sie erfuhren, dass ihre Entscheidungen nicht mehr zum Trainieren der KI verwendet wurden. Dies deutet darauf hin, dass die Erfahrung der Gestaltung der Technologie einen dauerhaften Einfluss auf die Entscheidungsfindung hat. „Als Kognitionswissenschaftler sind wir an der Bildung von Gewohnheiten interessiert“, so Kool. „Dies ist ein tolles Beispiel, weil das Verhalten auch dann noch anhielt, als es nicht mehr gefragt war.“

Dennoch ist der Impuls, der hinter dem Verhalten steht, nicht ganz klar. Die Forscher fragten nicht nach spezifischen Motivationen und Strategien, und Kool erklärte, dass die Teilnehmer möglicherweise keine Verpflichtung verspürten, die KI ethischer zu gestalten. Es sei möglich, dass das Experiment einfach nur ein natürliches Verhalten hervorgerufen habe, Angebote abzulehnen, die ihnen unfair erschienen. „Sie denken vielleicht nicht wirklich über die zukünftigen Konsequenzen nach“, sagt er. 

„Die Studie unterstreicht das wichtige menschliche Element beim Training von KI“, so Ho, ein Informatiker, der die Beziehungen zwischen menschlichem Verhalten und maschinellen Lernalgorithmen untersucht. „Ein Großteil des KI-Trainings basiert auf menschlichen Entscheidungen“, sagt er. „Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein. In den letzten Jahren haben wir viele Probleme gesehen, die aus dieser Art von Diskrepanz zwischen KI-Training und Einsatz entstanden sind.“ 

Einige Gesichtserkennungs-Software erkenne zum Beispiel People of Color weniger genau, so Ho. „Das liegt zum Teil daran, dass die Daten, die zum Trainieren der KI verwendet werden, verzerrt und nicht repräsentativ sind“, sagt er.

Treiman führt nun Folgeexperimente durch, um einen besseren Einblick in die Motivationen und Strategien der Menschen zu bekommen, die KI trainieren. „Es ist sehr wichtig, die psychologischen Aspekte der Computerwissenschaft zu berücksichtigen“, so Treiman abschließend. 


Mehr Artikel

Kommentar

Pflicht-Cyberversicherungen als Rettungsanker für Unternehmen?

Die Passivitätführt vieler Unternehmen bei der Absicherung ihrer IT-Infrastruktur führt nicht nur zu immensen wirtschaftlichen Schäden, sondern bringt auch den Versicherungsmarkt ins Wanken. Versicherer ziehen sich zunehmend aus dem Cyberversicherungssegment zurück, da Schadenszahlungen die Prämieneinnahmen übersteigen. Eine fatale Entwicklung für Unternehmen und den Markt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*