KI braucht eine digitale Ethik

Künstliche Intelligenz wird die Art und Weise, wie wir zusammenarbeiten und unseren Alltag gestalten, verändern. In vielen Bereichen ist das bereits heute der Fall. Dafür braucht es aber auch einige gesellschaftliche Grundregeln. [...]

Kenneth Lindstroem ist Geschäftsführer der Cellent GmbH, die seit 2016 zu Wipro gehört.
Kenneth Lindstroem ist Geschäftsführer der Cellent GmbH, die seit 2016 zu Wipro gehört. (c) Cellent

Künstliche Intelligenz (KI) nimmt uns Routinetätigkeiten ab und unterstützt uns dabei, schnellere und bessere Entscheidungen zu treffen. Sie kann uns helfen, Fragestellungen aus einem anderen Blickwinkel zu betrachten und in manchen Fällen sogar Leben retten. Aber natürlich wirft der Einsatz von KI auch Fragen auf. Wer ist beispielsweise dafür verantwortlich, dass die Technologie für gute und nicht für böse Zwecke genutzt wird? Es geht, kurz gesagt, um Fragen der Ethik.

Menschen tragen ihre Vorurteile in die KI

Heute steht maschinelle Intelligenz immer häufiger zwischen den Menschen und den Organisationen, mit denen sie es zu tun haben, beispielsweise in Form von Chatbots im Kundendienst. Auch wenn KI im Grunde genommen binär auf 0 und 1 beruht, ist sie nicht neutral. Das kann sie bei genauerer Betrachtung auch gar nicht sein, weil sie von Menschen programmiert wurde, die bestimmte Einstellungen haben und – gewollt oder ungewollt – voreingenommen sind. Beispiele für einen solchen „Bias“ finden sich in Bildersuchen, Recruiting-Software, Finanzrecherchen und vielem mehr:

  • Ein Unternehmen nutzt KI bei der Einstellung neuer Mitarbeiter. Das System bezieht dabei die Geschlechterverteilung der Branche in seine Entscheidung mit ein. Dadurch werden bestehende statistische Ungleichgewichte verstärkt, was zu einer systematischen Benachteiligung von Frauen führt.
  • Ein selbst lernender Chatbot auf Twitter wird von den Usern so trainiert, dass er sich zu einem Rassisten entwickelt.
  • Eine führende Software für Gesichtserkennung ist bei dunkelhäutigen Männern und Frauen weniger genau als bei Weißen, wodurch Dunkelhäutige häufiger als potenziell kriminell eingestuft werden.
  • Ein Chirurg muss entscheiden, ob er das Leben einer Mutter oder das des ungeborenen Kindes rettet. Wenn sich der Chirurg in 20 von 20 Fällen für das Kind entscheidet und die KI auf dieser Datenbasis lernt, würde sie diese Entscheidung bis in alle Ewigkeit so treffen.

Diese Liste an Beispielen ließe sich noch lange fortführen. Damit Entscheidungen einer KI vertrauenswürdig sind, müssen sie zuerst einmal nachvollziehbar und transparent sein. Dabei ist es oft schwer einzuschätzen, an welchen Stellen die Technologie „blinde Flecken“ haben kann. Juristen, Menschenrechtsaktivisten und Wissenschaftler betonen die Wichtigkeit von Ethik und Verantwortlichkeit bei der Entwicklung und Implementierung von KI-Systemen. Das klingt vernünftig, wirft allerdings auch Fragen auf, etwa nach allgemein gültigen Normen: Wer legt eigentlich diese ethischen Werte fest – und wer setzt sie um? 

Ein Ausgangspunkt könnten die internationalen Menschenrechte sein. Dazu müssten sich Technologieunternehmen mit Menschenrechtsgruppen und Wissenschaftlern austauschen und über den gesamten Lebenszyklus ihrer KI-Systeme entsprechende Assessments durchführen. Algorithmen müssten permanent auf den Prüfstand gestellt und immer weiter verfeinert werden, damit sie so akkurat wie möglich sind. Es muss auch Klarheit darüber herrschen, für welchen Einsatzzweck sie empfohlen werden. 

80 Prozent Trefferquote genügen nicht 

Bei Gesichtserkennung beispielsweise reicht eine Trefferquote von 80 Prozent vielleicht aus, wenn es darum geht, Prominente auf Fotos zu erkennen. Wenn es aber um Strafverfolgung oder etwas anderes geht, das die Freiheitsrechte von Personen betrifft, sollte die Hürde schon bei 99 Prozent liegen – und sogar dann sollte dies nicht das einzige Entscheidungskriterium sein. In solchen Fällen sollten auch immer mehrere Menschen mit unterschiedlichem Hintergrund involviert sein – Stichwort „Diversity“ – um Fehlentscheidungen so weit wie möglich zu vermeiden. 

Technologie und Menschen sind die Herausforderungen

Die größten Herausforderungen bestehen in zwei Faktoren: Technologie und Menschen. Im Bereich Technologie liegt der Fokus aktuell auf Deep Learning, mit der Konsequenz, dass die Algorithmen oft intransparent sind. Entwickler haben kaum die Möglichkeit, herauszufinden, auf welcher Basis eine Entscheidung oder Empfehlung getroffen wurde. Ein weiteres technisches Problem betrifft die Daten: Wenn Daten verwendet werden, die nicht breit angelegt sind oder irgendeine Art von Verzerrung aufweisen, kann dies zu erheblichen Problemen bei der Erstellung und Anwendung von KI-Modellen führen. Hier müssen die besten und vielfältigsten Datensätze gefunden und genutzt werden, damit sich keine Verzerrungen einschleichen können. Mit Blick auf die Menschen liegen die Herausforderungen einerseits im Mangel an qualifizierten Data Scientists, wenn es um die Erstellung von KI-Modellen geht; andererseits in der fehlenden Erfahrung mit diesen Modellen seitens der internen Revision. Der Engpass bei Data Scientists wird wohl noch einige Zeit bestehen bleiben. Dies führt zwangsläufig zu deutlich längeren Entwicklungszeiten, weil interne Mitarbeiter sich in Richtung Data Science weiterbilden müssen. Das Gleiche gilt für die interne Revision, der typischerweise die Erfahrung im Umgang mit KI-Algorithmen oder -Modellen fehlt. Auch hier müssen Mitarbeiter, die bisher vor allem mit der Prüfung von Finanzberichten oder Geschäftsprozessen zu tun hatten, geschult und trainiert werden. 

KI braucht ethische Grundlagen

Technische Algorithmen sind vorerst einmal nur Mathematik. Erst wenn Trainings und Daten ins Spiel kommen, werden Verzerrungen Tür und Tor geöffnet. Wipro hat daher für seine KI-Plattform Holmes das Framework ETHICA (Explainability, Transparency, Human-First, Interpretability, Common Sense, Auditability) entwickelt. Es unterstützt Unternehmen bei einem ethischen KI-Einsatz und gleichzeitig auch vielen Compliance-Richtlinien wie etwa der DSGVO zu entsprechen. Das Ziel ist es, potenzielle Verzerrungen bereits im Vorfeld so weit wie möglich zu vermeiden. Ein Ansatz liegt in der Einschränkung der Daten, die in den Algorithmus einfließen: Anstatt sämtliche vorhandene personenbezogene Daten zu nutzen, sollten nur jene verwendet werden, die für die jeweilige Entscheidung tatsächlich relevant sind. Beispielsweise werden Name, Geschlecht, Wohnort etc. zur Bearbeitung eines Kreditantrags von der Bank benötigt, um sicherzugehen, dass die richtige Person den Antrag stellt. Für die weitere Bearbeitung sind einige dieser Daten aber möglicherweise nicht mehr notwendig und sollten daher nicht in den Algorithmus einfließen. 

Ein anderes Beispiel ist die Anomalien- und Mustererkennung zur Bekämpfung von Versicherungs- und Zahlungsbetrug. Hier sollten nur historische Daten, unabhängig von der Person und dem Anlassfall, zum Einsatz kommen. 

Die Grenzen der KI

Man muss sich der Grenzen der KI bewusst sein und diese offen ansprechen: KI ist eine Blackbox. Und eine Blackbox ist nicht vertrauenswürdig und nur begrenzt rechenschaftspflichtig. Daher kommt dem Menschen als Kontrollinstanz eine wesentliche Rolle zu – sowohl bei der Bereitstellung der Datenbasis als auch bei der kritischen Hinterfragung der Ergebnisse.

*Kenneth Lindstroem ist Geschäftsführer von Cellent.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*