Diskriminierende KI und die rechtlichen Folgen

Beispiele diskriminierender KI gibt es viele. Wir beleuchten die rechtlichen Seiten des Problems und klären unter anderem die Frage nach der Haftung. [...]

Das Diskriminierungspotenzial von KI ist gleichzeitig eine rechtliche Herausforderung (c) pixabay.com

Die Chancen und Herausforderungen von Künstlicher Intelligenz müssen von Gesetzgebern stets abgewogen und in Einklang gebracht werden. In Bezug auf das Diskriminierungspotenzial von KI treten bei maschinellem Lernen neue Herausforderungen auf: Denn im Unterschied zu herkömmlichen Wenn-Dann-Operationen treffen selbstlernende Systeme eigenständig Entscheidungen, teilweise auch zu gänzlich unvorhersehbaren Situationen. Dieses maschinelle Lernen erfolgt auf der Basis von Datensätzen. Der Rahmen der Ergebnismöglichkeiten ist im Vergleich zu Wenn-Dann-Systemen nicht begrenzt, wodurch sich auch das Diskriminierungspotenzial verändert.

Diskriminierung durch selbstlernende KI

Ein konkretes Beispiel sind Bewerbungs-Tools, die automatisch auf Datensätze eines Unternehmens zugreifen, um bei großen Mengen von Bewerbungen eine Vorauswahl treffen zu können. Der Nachteil: Recherchen zufolge können äußere Merkmale der Bewerber, wie Brille, Kleidung oder Kopfbedeckung, das Ergebnis einer solchen KI deutlich beeinflussen.

Unabhängig von Äußerlichkeiten könnte ein solcher Algorithmus aber beispielsweise auch zu dem Schluss kommen, dass Männer zuverlässigere Arbeitskräfte sind, wenn diese im betreffenden Unternehmen in der Vergangenheit statistisch seltener gefehlt hatten. Mutterschutz und Kindererziehungszeiten, die vor allem Frauen in Anspruch nehmen, rechnet die KI nicht automatisch heraus, solange sie nicht entsprechend programmiert ist. Da Programmierer unmöglich alle Ergebnisse und Auswahlkriterien einer selbstlernenden KI im Vorfeld berücksichtigen können, muss KI deshalb stetig auf ihr Diskriminierungspotenzial hin überprüft werden. Je mehr Datenpunkte dabei vorhanden sind, desto geringer ist die Wahrscheinlichkeit für eine Diskriminierung beziehungsweise für eine systematische Voreingenommenheit.

Wird eine systematische Benachteiligung bestimmter Personengruppen erkannt, ist ein Zurücksetzen oder Umprogrammieren der entsprechenden nur schwer möglich, wenn sich diese selbst weiterentwickelt. In der Regel muss das gesamte Programm dann entfernt werden. „Fehler“ zu erkennen, gestaltet sich hier ebenfalls schwierig, denn der Datensatz muss nicht automatisch falsch sein. Er kann schlicht auch einfach unzureichend sein. Bei Fällen von Diskriminierung stellt sich außerdem die Frage: Ist die Entscheidung der Maschine aus technischer Sicht falsch, oder ist sie einfach unvereinbar mit unseren ethischen Grundsätzen?

Um solchen Fehlern vorzubeugen, ist der maschinelle Aufbau eigener Risikomechanismen möglich. Diese können ungewünschte Nebeneffekte wie eine Diskriminierung minimieren, wenn die Maschine selbst erkennen kann, ob sie durch Algorithmen zu einer Entscheidung kommt, die bestimmte Personengruppen kategorisch ausschließen. Dies würde einen risikobewussteren Einsatz von selbstlernender KI ermöglichen.

Die Haftungsfrage

Bei Bewerbungen tritt eine Diskriminierung durch selbstlernende KI insbesondere über Kategorien wie Geschlecht, Hautfarbe, Religion oder Behinderung auf. Wird eine solche Diskriminierung bekannt, haben Betroffene die Möglichkeit, auf zivilrechtlicher Basis eine Unterlassung und Schadensansprüche zu verlangen. Diese richten sich dann nicht gegen die KI, sondern gegen den Einsetzenden der KI. Grundsätzlich bietet auch das Grundgesetz einen Schutz vor Diskriminierung. Außerdem findet vor allem im Arbeitsrecht das Allgemeine Gleichbehandlungsgesetz (AGG) Anwendung, das seit 2006 die Vertragsfreiheit im Bereich der (Un-)Gleichbehandlung einschränkt.

Die Datenschutzgrundverordnung (DSGVO) bietet durch Art. 22 gewissermaßen eine Präventivmaßnahme. Diese Vorschrift erlaubt keine vollautomatisierten Entscheidungen, wenn diese rechtliche Wirkungen für den Betroffenen entfalten oder ihn anderweitig erheblich beeinträchtigen. Eine natürliche Person muss, jedenfalls bei Entscheidungen, die für den Betroffenen einen Nachteil mit sich bringen, daher immer als Kontrollinstanz an der Entscheidung beteiligt sein. Im Bewerbungsverfahren dürfen HR-Verantwortliche die Auswahl der Bewerber daher nicht allein einem Algorithmus überlassen.

Eigene Regularien, die sich ausschließlich auf KI beziehen, gibt es bisher nicht. Wenn eine Entscheidung von der Rechtsordnung nicht toleriert wird, ist es aber gleichgültig, wie die Entscheidung zustande gekommen ist. Liegt eine Diskriminierung vor, ist diese nicht rechtens, unabhängig davon, ob eine natürliche Person, ein Unternehmen, oder eine Maschine „dahintersteht“.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Rechtliche Rahmenbedingungen wünschenswert

Der Bedarf nach ethischen Leitlinien für den Einsatz von Künstlicher Intelligenz ist in den letzten Jahren durch den zunehmenden Einsatz der gewachsen. Das Europäische Parlament hat im Herbst 2020 bereits eine entsprechende Verordnung für einen Rechtsrahmen gefordert und einen Vorschlag vorgelegt. Ein weiterer Vorschlag der Kommission, der bestehende Lücken im Schutz vor Diskriminierung füllen soll, wird noch 2021 erwartet. Solche rechtlichen Rahmenbedingungen durch Gesetzgeber könnten zukünftig zu verbesserter Anwendbarkeit von KI und damit zu einer größeren Akzeptanz in der Gesellschaft führen.

*Jörg-Alexander Paul ist Rechtsanwalt und Partner bei Bird & Bird. Er berät Banken, Finanzdienstleister, IT-Unternehmen und andere Unternehmen in vielschichtigen Software-, Datenbank- und E-Commerce-Projekten.


Mehr Artikel

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*