Immer mehr Unternehmen setzen Künstliche Intelligenz ein, um Entscheidungen zu automatisieren. Dadurch wird auch das Problem des „Data Bias“ immer akuter. [...]
KI-Modelle müssen trainiert werden, und die Daten, die dabei zum Einsatz kommen, transportieren unweigerlich die Voreingenommenheit der Personen, die diese Daten erstellt haben, in die Modelle. Das kann zu Datenverzerrungen führen: Die KI-Modelle treffen aufgrund der Voreingenommenheit falsche oder diskriminierende Entscheidungen.
Ein Beispiel dafür ist die Generierung von Inhalten, die Stereotype verstärken oder bestimmte Gruppen ausschließen. So könnte es etwa passieren, dass ein Chatbot, der auf der Grundlage voreingenommener Daten trainiert wurde, Männern besser bezahlte Stellen empfiehlt als Frauen mit vergleichbaren Qualifikationen.
Ein weiteres Beispiel ist die KI-basierte Bonitätsprüfung beim Online-Shopping. Datenverzerrungen könnten dazu führen, dass bei der Beurteilung der Kreditwürdigkeit bestimmte Personen aufgrund ihres Alters oder ihrer Herkunft schlechter bewertet werden.
Ein drittes Beispiel kommt aus dem Versicherungswesen. Wenn das KI-System eines Versicherers bei der Ermittlung der Versicherungsprämie die Postleitzahl als Variable berücksichtigt, kann das dazu führen, dass ein Antragssteller, der selbst ein geringes Risiko aufweist, aber in einer Gegend mit hohem Risikorating lebt, eine unverhältnismäßig hohe Prämie bezahlen muss.
Finanzielle, ethische und rechtliche Schäden drohen
Wenn KI-Systeme aufgrund von Datenverzerrungen falsche Entscheidungen treffen oder Menschen diskriminieren, kann das für die Unternehmen erhebliche finanzielle, ethische und rechtliche Schäden verursachen und ihre Reputation nachhaltig beschädigen.
Umgekehrt eröffnen sich Unternehmen, die dieses Problem in den Griff bekommen, neue Marktchancen. Immer mehr Kunden verhalten sich bei ihren Kaufentscheidungen wertorientiert und wenden sich deshalb verstärkt an Unternehmen, die ethische Geschäftspraktiken pflegen.
Dasselbe gilt für Arbeitnehmer. Vor allem den jüngeren Generationen sind ethische und wertbewusste Arbeitgeber wichtig, so dass sich Unternehmen einen Vorteil im Wettbewerb um die begehrten Fachkräfte verschaffen können.
Vielen Unternehmen ist das Problem des Data Bias auch durchaus bewusst. Das zeigt die aktuelle Studie „Data Bias: The Hidden Risk of AI“ von Progress, für die zahlreiche Business- und IT-Verantwortliche aus Deutschland befragt wurden.
Die große Mehrheit von ihnen ist der Ansicht, dass Datenverzerrungen mit dem zunehmenden Einsatz von Künstlicher Intelligenz zu einem größeren Problem werden. Die meisten sind dann auch konsequenterweise der Ansicht, dass sie mehr gegen Datenverzerrungen tun müssten; viele von ihnen wissen aber nicht so recht, wie sie effektiv dagegen vorgehen können.
Mehrere Möglichkeiten und Best Practices gegen Datenverzerrungen
Um falsche oder diskriminierende Entscheidungen von KI-Systemen zu verhindern, gibt es mehrere Möglichkeiten und Best Practices. Eine wichtige Strategie besteht darin, dafür zu sorgen, dass die Trainingsdaten vielfältig sind und die gesamte Nutzerbasis repräsentieren. Das kann beispielsweise heißen, dass Unternehmen Daten aus einer Vielzahl unterschiedlicher Quellen sammeln und bei wichtigen Faktoren wie Demografie oder Geografie ein Gleichgewicht sicherstellen.
Eine zusätzliche Möglichkeit ist der Einsatz automatisierter Tools zur Erkennung und Beseitigung von Verzerrungen in Trainingsdaten. Spezielle Algorithmen können voreingenommene Sprache in Textdatensätzen identifizieren und entfernen, während sich mit bestimmten statistischen Verfahren Ungleichheiten in der demografischen Darstellung erkennen und beseitigen lassen.
Darüber hinaus können Unternehmen abhängig von den potentiellen Folgen eine Datenverzerrung festlegen, welche Entscheidungen sie komplett von Maschinen treffen lassen und welche sie mit menschlicher Unterstützung treffen.
Dazu erstellen sie am besten ein Rahmenwerk, das es ihnen ermöglicht, die Kosten von falschen Entscheidungen zu ermitteln. Falsche Empfehlungen auf einer E-Commerce-Website beispielsweise könnten nur einen geringen Schaden für ein Unternehmen und seine Kunden verursachen; werden aufgrund von Datenverzerrungen Darlehen abgelehnt, Bewerber abgewiesen oder sogar falsche ärztliche Diagnosen gestellt, drohen hingegen hohe Schäden und irreparable Reputationsverluste.
Durch eine solche Kostenbetrachtung können Unternehmen ermitteln, was vollständig automatisiert werden kann und bei welchen Entscheidungen KI den Menschen lediglich assistieren sollte.
Um gegen Fehler und Diskriminierung gefeit zu sein, ist es außerdem wichtig, dass Unternehmen die Entscheidungen ihrer KI-Systeme nachvollziehen können. Dabei kann ihnen so genannte „Explainable AI“, also „erklärbare KI“, helfen.
Dabei handelt es sich um spezielle Lösungen für Künstliche Intelligenz, welche die Hintergründe und das Zustandekommen der Entscheidungen transparent aufzeigen. Nicht zuletzt können Unternehmen mit Hilfe von Business-Rules-Management-Systemen (BRMS) Vorsorge treffen.
Solche Systeme ermöglichen es ihnen, Richtlinien und Einschränkungen zu definieren und über ihre KI-Modelle zu legen – und auf diese Weise falsche und diskriminierende Entscheidungen der KI festzustellen und zu überstimmen.
Be the first to comment