KI braucht eine digitale Ethik

Künstliche Intelligenz wird die Art und Weise, wie wir zusammenarbeiten und unseren Alltag gestalten, verändern. In vielen Bereichen ist das bereits heute der Fall. Dafür braucht es aber auch einige gesellschaftliche Grundregeln. [...]

Kenneth Lindstroem ist Geschäftsführer der Cellent GmbH, die seit 2016 zu Wipro gehört.
Kenneth Lindstroem ist Geschäftsführer der Cellent GmbH, die seit 2016 zu Wipro gehört. (c) Cellent

Künstliche Intelligenz (KI) nimmt uns Routinetätigkeiten ab und unterstützt uns dabei, schnellere und bessere Entscheidungen zu treffen. Sie kann uns helfen, Fragestellungen aus einem anderen Blickwinkel zu betrachten und in manchen Fällen sogar Leben retten. Aber natürlich wirft der Einsatz von KI auch Fragen auf. Wer ist beispielsweise dafür verantwortlich, dass die Technologie für gute und nicht für böse Zwecke genutzt wird? Es geht, kurz gesagt, um Fragen der Ethik.

Menschen tragen ihre Vorurteile in die KI

Heute steht maschinelle Intelligenz immer häufiger zwischen den Menschen und den Organisationen, mit denen sie es zu tun haben, beispielsweise in Form von Chatbots im Kundendienst. Auch wenn KI im Grunde genommen binär auf 0 und 1 beruht, ist sie nicht neutral. Das kann sie bei genauerer Betrachtung auch gar nicht sein, weil sie von Menschen programmiert wurde, die bestimmte Einstellungen haben und – gewollt oder ungewollt – voreingenommen sind. Beispiele für einen solchen „Bias“ finden sich in Bildersuchen, Recruiting-Software, Finanzrecherchen und vielem mehr:

  • Ein Unternehmen nutzt KI bei der Einstellung neuer Mitarbeiter. Das System bezieht dabei die Geschlechterverteilung der Branche in seine Entscheidung mit ein. Dadurch werden bestehende statistische Ungleichgewichte verstärkt, was zu einer systematischen Benachteiligung von Frauen führt.
  • Ein selbst lernender Chatbot auf Twitter wird von den Usern so trainiert, dass er sich zu einem Rassisten entwickelt.
  • Eine führende Software für Gesichtserkennung ist bei dunkelhäutigen Männern und Frauen weniger genau als bei Weißen, wodurch Dunkelhäutige häufiger als potenziell kriminell eingestuft werden.
  • Ein Chirurg muss entscheiden, ob er das Leben einer Mutter oder das des ungeborenen Kindes rettet. Wenn sich der Chirurg in 20 von 20 Fällen für das Kind entscheidet und die KI auf dieser Datenbasis lernt, würde sie diese Entscheidung bis in alle Ewigkeit so treffen.

Diese Liste an Beispielen ließe sich noch lange fortführen. Damit Entscheidungen einer KI vertrauenswürdig sind, müssen sie zuerst einmal nachvollziehbar und transparent sein. Dabei ist es oft schwer einzuschätzen, an welchen Stellen die Technologie „blinde Flecken“ haben kann. Juristen, Menschenrechtsaktivisten und Wissenschaftler betonen die Wichtigkeit von Ethik und Verantwortlichkeit bei der Entwicklung und Implementierung von KI-Systemen. Das klingt vernünftig, wirft allerdings auch Fragen auf, etwa nach allgemein gültigen Normen: Wer legt eigentlich diese ethischen Werte fest – und wer setzt sie um? 

Ein Ausgangspunkt könnten die internationalen Menschenrechte sein. Dazu müssten sich Technologieunternehmen mit Menschenrechtsgruppen und Wissenschaftlern austauschen und über den gesamten Lebenszyklus ihrer KI-Systeme entsprechende Assessments durchführen. Algorithmen müssten permanent auf den Prüfstand gestellt und immer weiter verfeinert werden, damit sie so akkurat wie möglich sind. Es muss auch Klarheit darüber herrschen, für welchen Einsatzzweck sie empfohlen werden. 

80 Prozent Trefferquote genügen nicht 

Bei Gesichtserkennung beispielsweise reicht eine Trefferquote von 80 Prozent vielleicht aus, wenn es darum geht, Prominente auf Fotos zu erkennen. Wenn es aber um Strafverfolgung oder etwas anderes geht, das die Freiheitsrechte von Personen betrifft, sollte die Hürde schon bei 99 Prozent liegen – und sogar dann sollte dies nicht das einzige Entscheidungskriterium sein. In solchen Fällen sollten auch immer mehrere Menschen mit unterschiedlichem Hintergrund involviert sein – Stichwort „Diversity“ – um Fehlentscheidungen so weit wie möglich zu vermeiden. 

Technologie und Menschen sind die Herausforderungen

Die größten Herausforderungen bestehen in zwei Faktoren: Technologie und Menschen. Im Bereich Technologie liegt der Fokus aktuell auf Deep Learning, mit der Konsequenz, dass die Algorithmen oft intransparent sind. Entwickler haben kaum die Möglichkeit, herauszufinden, auf welcher Basis eine Entscheidung oder Empfehlung getroffen wurde. Ein weiteres technisches Problem betrifft die Daten: Wenn Daten verwendet werden, die nicht breit angelegt sind oder irgendeine Art von Verzerrung aufweisen, kann dies zu erheblichen Problemen bei der Erstellung und Anwendung von KI-Modellen führen. Hier müssen die besten und vielfältigsten Datensätze gefunden und genutzt werden, damit sich keine Verzerrungen einschleichen können. Mit Blick auf die Menschen liegen die Herausforderungen einerseits im Mangel an qualifizierten Data Scientists, wenn es um die Erstellung von KI-Modellen geht; andererseits in der fehlenden Erfahrung mit diesen Modellen seitens der internen Revision. Der Engpass bei Data Scientists wird wohl noch einige Zeit bestehen bleiben. Dies führt zwangsläufig zu deutlich längeren Entwicklungszeiten, weil interne Mitarbeiter sich in Richtung Data Science weiterbilden müssen. Das Gleiche gilt für die interne Revision, der typischerweise die Erfahrung im Umgang mit KI-Algorithmen oder -Modellen fehlt. Auch hier müssen Mitarbeiter, die bisher vor allem mit der Prüfung von Finanzberichten oder Geschäftsprozessen zu tun hatten, geschult und trainiert werden. 

KI braucht ethische Grundlagen

Technische Algorithmen sind vorerst einmal nur Mathematik. Erst wenn Trainings und Daten ins Spiel kommen, werden Verzerrungen Tür und Tor geöffnet. Wipro hat daher für seine KI-Plattform Holmes das Framework ETHICA (Explainability, Transparency, Human-First, Interpretability, Common Sense, Auditability) entwickelt. Es unterstützt Unternehmen bei einem ethischen KI-Einsatz und gleichzeitig auch vielen Compliance-Richtlinien wie etwa der DSGVO zu entsprechen. Das Ziel ist es, potenzielle Verzerrungen bereits im Vorfeld so weit wie möglich zu vermeiden. Ein Ansatz liegt in der Einschränkung der Daten, die in den Algorithmus einfließen: Anstatt sämtliche vorhandene personenbezogene Daten zu nutzen, sollten nur jene verwendet werden, die für die jeweilige Entscheidung tatsächlich relevant sind. Beispielsweise werden Name, Geschlecht, Wohnort etc. zur Bearbeitung eines Kreditantrags von der Bank benötigt, um sicherzugehen, dass die richtige Person den Antrag stellt. Für die weitere Bearbeitung sind einige dieser Daten aber möglicherweise nicht mehr notwendig und sollten daher nicht in den Algorithmus einfließen. 

Ein anderes Beispiel ist die Anomalien- und Mustererkennung zur Bekämpfung von Versicherungs- und Zahlungsbetrug. Hier sollten nur historische Daten, unabhängig von der Person und dem Anlassfall, zum Einsatz kommen. 

Die Grenzen der KI

Man muss sich der Grenzen der KI bewusst sein und diese offen ansprechen: KI ist eine Blackbox. Und eine Blackbox ist nicht vertrauenswürdig und nur begrenzt rechenschaftspflichtig. Daher kommt dem Menschen als Kontrollinstanz eine wesentliche Rolle zu – sowohl bei der Bereitstellung der Datenbasis als auch bei der kritischen Hinterfragung der Ergebnisse.

*Kenneth Lindstroem ist Geschäftsführer von Cellent.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*