Warum bei Entscheidungen von Computern Vorsicht angesagt ist

In einer Studie im Journal of Business and Psychology konnten Forscher zeigen, dass Menschen gar nicht damit rechnen, dass ein Computer voreingenommene Entscheidungen treffen könnte, so dass es unbeabsichtigt zu Ungerechtigkeiten kommen kann. [...]

Foto: Universität des Saarlandes/Thorsten Mohr

Computer berechnen Dinge wertneutral. Daher trauen Menschen ihnen auch auf ethischer Ebene objektive Entscheidungen eher zu als anderen Menschen. Damit wiegen sie sich aber in trügerischer Sicherheit, hat ein Team der Saar-Universität nachgewiesen. In einer Studie im Journal of Business and Psychology konnten Forscher zeigen, dass Menschen gar nicht damit rechnen, dass ein Computer voreingenommene Entscheidungen treffen könnte, so dass es unbeabsichtigt zu Ungerechtigkeiten kommen kann.

Wo Menschen arbeiten, passieren Fehler. Wie schön wäre es da, einen Computer zu Rate zu ziehen und diesen ganz unvoreingenommen und mit der Nüchternheit einer kalten Maschine Entscheidungen treffen zu lassen, auf dass der fehlbare Mensch Unterstützung von der unfehlbaren Maschine erhalte!

In einigen Bereichen ist dieser Traum bereits wahr geworden. So gibt es zum Beispiel Software, die Personalern bei Stellenbesetzungen hilft. Den – meist unabsichtlich – voreingenommenen Menschen, die letzten Endes die Entscheidung über die Stellenbesetzung treffen, können solche Programme eine große Hilfe sein. Schließlich müssen sich die Personalverantwortlichen am Ende nur noch mit einem Bruchteil der Bewerbungen befassen.

Die Maschine hat ja mit kühler Präzision bereits die fachlich ungeeigneten Personen rausgefiltert, und das ganz unabhängig von Geschlecht, Alter, Nationalität, Hautfarbe und anderen Kriterien, die bei Menschen oft vorurteilsbehaftete Reaktionen auslösen.

„Genau hier liegt die Gefahr“, warnt Dr. Markus Langer.

„Wenn ich erwarte, dass ein Computersystem unvoreingenommen entscheidet, dann schlägt auch niemand Alarm, wenn das Ergebnis der Maschine dann doch von Parametern wie dem Geschlecht oder der Ethnie beeinflusst wird.“

Anders bei menschlichen Entscheidungen, wo es inzwischen eine Vielzahl von „Alarmsystemen“, wenn man es so nennen will, gibt: Diversity-Beauftragte, Personalräte und viele andere begleiten Stellenbesetzungen von der Ausschreibung bis zur Personalentscheidung und sorgen für Fairness. Beim Computer hingegen rechnen solche Kontrollinstanzen eventuell nicht damit, dass es hier zu größeren Fehlentscheidungen kommen könnte, schließlich sind sie ja objektiv bis ins letzte Bit.

Klingt zu schön um wahr zu sein. Ist es auch: „Wir haben den Studienteilnehmerinnen gesagt, sie seien Personalverantwortliche für ein großes Versicherungsunternehmen. In insgesamt zwölf Runden haben wir ihnen dann Bilder von Bewerbern gezeigt, die entweder von einer Person oder einem Computer aus einer größeren Zahl vorausgewählt wurden“, erklärt Markus Langer das Ausgangsszenario, welches den Teilnehmerinnen und Teilnehmern präsentiert wurde.

In den ersten vier Runden haben sie den Freiwilligen suggeriert, dass sowohl Computer als auch Mensch eine ausgewogene Geschlechterverteilung für die Endrunde der Personalauswahl vorgeschlagen haben, also zum Beispiel 5 Männer und 5 Frauen oder 4:6 oder 6:4, jedenfalls in etwa ausgewogen. Die Freiwilligen wurden gefragt, ob sie dem Computer beziehungsweise den menschlichen „Vorentscheidern“ unvoreingenommene Entscheidungen zutrauten. „Hier wurde schon zu Beginn der Befragung klar, dass die Teilnehmerinnen das Computersystem für unvoreingenommener halten als den Menschen“, so Markus Langer.

„Ab der fünften Runde waren dann deutlich mehr Männer als Frauen in die Endauswahl gekommen, und zwar sowohl vom Computer als auch vom Menschen ausgewählt“, erklärt der Psychologe. „In dieser Phase stürzt das Vertrauen in die Fähigkeit des Menschen, eine Vorauswahl zu treffen, stark ab. Das Computersystem hingegen wurde von den Probandinnen nach wie vor als weniger vorurteilshaft betrachtet, auch wenn es ein krasses Missverhältnis hinsichtlich der Geschlechterverteilung getroffen hat“, unterstreicht der promovierte Psychologe.

In der dritten Phase schließlich erklärten Langer und sein Team den Teilnehmern, dass Fehler passiert sind und die Vorauswahl nun wieder fair getroffen werde. Im Anschluss daran fassten die Studienteilnehmer wieder mehr Vertrauen in die menschliche Vorauswahl.

„Das Problem hier ist nicht, dass ein Computersystem mutmaßlich auch voreingenommen urteilen kann“, erläutert Markus Langer den dahinterstehenden Gedanken. Viel mehr legt die Studie den Finger in eine andere Wunde: „Wenn ich die Erwartung habe, dass ein Computer ‚gerechtere‘ Entscheidungen trifft als ein Mensch, schlägt womöglich niemand Alarm, wenn es dann doch ungerecht zugeht, einfach, weil niemand damit rechnet, dass das Computerprogramm voreingenommen urteilen könnte.“

Dabei sei keineswegs klar, dass ein Computer nicht auch „unfaire“ Entscheidungen produzieren kann. Künstliche Intelligenz lernt schließlich aus vorhandenen Daten, und wenn in der Vergangenheit viele „mittelalte weiße Männer“ ausgewählt wurden, wird das Computerprogramm dies in der Vorauswahl berücksichtigen, wenn man in der Entwicklung nicht wirklich gut aufpasst.

Der überwiegende Teil der 121 Freiwilligen, die an der Studie teilgenommen haben, war übrigens sehr jung (circa 23 Jahre) und weiblich (79 Prozent). Insbesondere in Zeiten, in denen Frauen nach wie vor um eine gleichberechtigte Behandlung in der Berufswelt kämpfen müssen, ist es umso wichtiger, ein Bewusstsein dafür zu entwickeln, dass sich auch Computer irren können.

Originalpublikation: Langer, M., König, C. J., Back, C., & Hemsing, V. (2022). Trust in Artificial Intelligence: Comparing trust processes between human and automated trustees in light of unfair bias. Journal of Business and Psychology. Advance online publication. doi:10.1007/s10869-022-09829-9

*Bernhard Lauer ist unter anderem freier Redakteur der dotnetpro und betreut hier beispielsweise die Rubrik Basic Instinct. Mit Visual Basic programmiert er privat seit der Version 1.0.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*