Menschen trainieren KI – oder ist es umgekehrt? 

Ein interdisziplinäres Team der Washington University in St. Louis versucht zu verstehen, wie sich das menschliche Verhalten beim Training von KI verändert. [...]

„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels
„Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein.“ (c) Pexels

Eine neue interdisziplinäre Studie von Forschern der Washington University in St. Louis hat ein unerwartetes psychologisches Phänomen an der Schnittstelle zwischen menschlichem Verhalten und künstlicher Intelligenz (KI) aufgedeckt: Als Teilnehmern an einem Versuch gesagt wurde, dass sie eine KI für ein Verhandlungsspiel trainieren würden, passten sie ihr eigenes Verhalten aktiv an, um fairer und gerechter zu erscheinen – ein Phänomen mit möglicherweise massiven Auswirkungen für KI-Entwickler.

„Die Teilnehmer schienen die Motivation zu haben, KI für Fairness zu trainieren, was ermutigend ist. Aber andere Menschen könnten andere Ziele haben“, sagt Lauren Treiman, Doktorandin in der Abteilung für Computer- und Datenwissenschaften und Hauptautorin der Studie. „Die Entwickler sollten wissen, dass Menschen ihr Verhalten absichtlich ändern, wenn sie wissen, dass es zum Trainieren von KI verwendet wird.“

Die Co-Autoren der Studie sind Wouter Kool, Assistenzprofessor für Psychologie und Gehirnforschung in Arts & Sciences, und Chien-Ju Ho, Assistenzprofessor für Informatik und Ingenieurwissenschaften an der McKelvey School of Engineering. Kool und Ho sind Treimans Studienberater.

Die Studie umfasste fünf Experimente mit jeweils etwa 200 bis 300 Teilnehmern. Die Probanden wurden gebeten, das „Ultimatum Game“ zu spielen, eine Herausforderung, bei der sie mit anderen menschlichen Spielern oder einem Computer über kleine Geldbeträge (nur 1 bis 6 Dollar) verhandeln müssen. In einigen Fällen wurde ihnen gesagt, dass ihre Entscheidungen dazu dienen würden, einer künstlichen Intelligenz beizubringen, wie man das Spiel spielt.

Die Spieler, die dachten, sie würden die KI trainieren, waren durchweg eher bereit, einen fairen Anteil an der Auszahlung anzustreben, selbst wenn diese Fairness sie ein paar Dollar kostete. Interessanterweise änderte sich dieses Verhalten auch dann noch, als sie erfuhren, dass ihre Entscheidungen nicht mehr zum Trainieren der KI verwendet wurden. Dies deutet darauf hin, dass die Erfahrung der Gestaltung der Technologie einen dauerhaften Einfluss auf die Entscheidungsfindung hat. „Als Kognitionswissenschaftler sind wir an der Bildung von Gewohnheiten interessiert“, so Kool. „Dies ist ein tolles Beispiel, weil das Verhalten auch dann noch anhielt, als es nicht mehr gefragt war.“

Dennoch ist der Impuls, der hinter dem Verhalten steht, nicht ganz klar. Die Forscher fragten nicht nach spezifischen Motivationen und Strategien, und Kool erklärte, dass die Teilnehmer möglicherweise keine Verpflichtung verspürten, die KI ethischer zu gestalten. Es sei möglich, dass das Experiment einfach nur ein natürliches Verhalten hervorgerufen habe, Angebote abzulehnen, die ihnen unfair erschienen. „Sie denken vielleicht nicht wirklich über die zukünftigen Konsequenzen nach“, sagt er. 

„Die Studie unterstreicht das wichtige menschliche Element beim Training von KI“, so Ho, ein Informatiker, der die Beziehungen zwischen menschlichem Verhalten und maschinellen Lernalgorithmen untersucht. „Ein Großteil des KI-Trainings basiert auf menschlichen Entscheidungen“, sagt er. „Wenn die menschliche Voreingenommenheit beim KI-Training nicht berücksichtigt wird, wird auch die daraus resultierende KI voreingenommen sein. In den letzten Jahren haben wir viele Probleme gesehen, die aus dieser Art von Diskrepanz zwischen KI-Training und Einsatz entstanden sind.“ 

Einige Gesichtserkennungs-Software erkenne zum Beispiel People of Color weniger genau, so Ho. „Das liegt zum Teil daran, dass die Daten, die zum Trainieren der KI verwendet werden, verzerrt und nicht repräsentativ sind“, sagt er.

Treiman führt nun Folgeexperimente durch, um einen besseren Einblick in die Motivationen und Strategien der Menschen zu bekommen, die KI trainieren. „Es ist sehr wichtig, die psychologischen Aspekte der Computerwissenschaft zu berücksichtigen“, so Treiman abschließend. 


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*