Menschen trainieren KI – oder ist es umgekehrt? 

Ein interdisziplinäres Team der Washington University in St. Louis versucht zu verstehen, wie sich das menschliche Verhalten beim Training von KI verändert. [...]

„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels
„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels

Eine neue interdisziplinäre Studie von Forschern der Washington University in St. Louis hat ein unerwartetes psychologisches Phänomen an der Schnittstelle zwischen menschlichem Verhalten und künstlicher Intelligenz (KI) aufgedeckt: Als Teilnehmern an einem Versuch gesagt wurde, dass sie eine KI für ein Verhandlungsspiel trainieren würden, passten sie ihr eigenes Verhalten aktiv an, um fairer und gerechter zu erscheinen – ein Phänomen mit möglicherweise massiven Auswirkungen für KI-Entwickler.

„Die Teilnehmer schienen die Motivation zu haben, KI für Fairness zu trainieren, was ermutigend ist. Aber andere Menschen könnten andere Ziele haben“, sagt Lauren Treiman, Doktorandin in der Abteilung für Computer- und Datenwissenschaften und Hauptautorin der Studie. „Die Entwickler sollten wissen, dass Menschen ihr Verhalten absichtlich ändern, wenn sie wissen, dass es zum Trainieren von KI verwendet wird.“

Die Co-Autoren der Studie sind Wouter Kool, Assistenzprofessor für Psychologie und Gehirnforschung in Arts & Sciences, und Chien-Ju Ho, Assistenzprofessor für Informatik und Ingenieurwissenschaften an der McKelvey School of Engineering. Kool und Ho sind Treimans Studienberater.

Die Studie umfasste fünf Experimente mit jeweils etwa 200 bis 300 Teilnehmern. Die Probanden wurden gebeten, das „Ultimatum Game“ zu spielen, eine Herausforderung, bei der sie mit anderen menschlichen Spielern oder einem Computer über kleine Geldbeträge (nur 1 bis 6 Dollar) verhandeln müssen. In einigen Fällen wurde ihnen gesagt, dass ihre Entscheidungen dazu dienen würden, einer künstlichen Intelligenz beizubringen, wie man das Spiel spielt.

Die Spieler, die dachten, sie würden die KI trainieren, waren durchweg eher bereit, einen fairen Anteil an der Auszahlung anzustreben, selbst wenn diese Fairness sie ein paar Dollar kostete. Interessanterweise änderte sich dieses Verhalten auch dann noch, als sie erfuhren, dass ihre Entscheidungen nicht mehr zum Trainieren der KI verwendet wurden. Dies deutet darauf hin, dass die Erfahrung der Gestaltung der Technologie einen dauerhaften Einfluss auf die Entscheidungsfindung hat. „Als Kognitionswissenschaftler sind wir an der Bildung von Gewohnheiten interessiert“, so Kool. „Dies ist ein tolles Beispiel, weil das Verhalten auch dann noch anhielt, als es nicht mehr gefragt war.“

Dennoch ist der Impuls, der hinter dem Verhalten steht, nicht ganz klar. Die Forscher fragten nicht nach spezifischen Motivationen und Strategien, und Kool erklärte, dass die Teilnehmer möglicherweise keine Verpflichtung verspürten, die KI ethischer zu gestalten. Es sei möglich, dass das Experiment einfach nur ein natürliches Verhalten hervorgerufen habe, Angebote abzulehnen, die ihnen unfair erschienen. „Sie denken vielleicht nicht wirklich über die zukünftigen Konsequenzen nach“, sagt er. 

„Die Studie unterstreicht das wichtige menschliche Element beim Training von KI“, so Ho, ein Informatiker, der die Beziehungen zwischen menschlichem Verhalten und maschinellen Lernalgorithmen untersucht. „Ein Großteil des KI-Trainings basiert auf menschlichen Entscheidungen“, sagt er. „Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein. In den letzten Jahren haben wir viele Probleme gesehen, die aus dieser Art von Diskrepanz zwischen KI-Training und Einsatz entstanden sind.“ 

Einige Gesichtserkennungs-Software erkenne zum Beispiel People of Color weniger genau, so Ho. „Das liegt zum Teil daran, dass die Daten, die zum Trainieren der KI verwendet werden, verzerrt und nicht repräsentativ sind“, sagt er.

Treiman führt nun Folgeexperimente durch, um einen besseren Einblick in die Motivationen und Strategien der Menschen zu bekommen, die KI trainieren. „Es ist sehr wichtig, die psychologischen Aspekte der Computerwissenschaft zu berücksichtigen“, so Treiman abschließend. 


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*