Recruiting: Bewerbermanagement sicher gestalten

Mit welchen Daten darf eine KI gefüttert werden? Auch ethische Gesichtspunkte spielen eine Rolle: was ist, wenn der Algorithmus diskriminiert? Einen Überblick zu den gesetzlichen Regeln und Vorgaben liefert dieser Artikel. [...]

Trifft eine KI - aus welchen Gründen auch immer - im Bewerbermanagement die falsche Entscheidung und sagt einer Bewerberin oder einem Bewerber ab, kann diese unzulässige Benachteiligung zu Schadensersatzansprüchen der Betroffenen nach dem AGG führen (c) pixabay.com

Künstliche Intelligenz“ (KI) gewinnt immer mehr an Bedeutung für die deutsche Wirtschaft. Sie wird vermehrt von Unternehmen entweder bereits in der Produktentwicklung oder innerhalb der Unternehmen selbst eingesetzt, um Prozesse zu vereinfachen und zu beschleunigen.

Insbesondere ihr Einsatz im HR-Bereich, etwa der Einsatz von Chatbots im Rahmen von Bewerbungsprozessen, hat deutlich zugenommen. Während die Technik stetig voranschritt, „stolperte das Recht“ bislang noch hinterher. Doch besonders in den letzten Monaten hat der Gesetzgeber wichtige Schritte getan, KI zu regulieren. Dazu zählt der Entwurf einer europäischen KI-Verordnung sowie das Betriebsrätemodernisierungsgesetz. Welchen Einfluss die neuen Gesetze haben werden, wie die Rechtslage zur KI grundsätzlich aussieht und welche ethischen Gesichtspunkte es zu bedenken gilt, wird im Folgenden erörtert.

Recruiting durch KI – Haftungslücken im deutschen Recht?

Das deutsche Recht lässt im gewissen Rahmen den Einsatz von intelligenten Recruiting Tools zu. Wichtig hierbei ist, dass zum einen die Datenerhebung, welche die Grundlage für die Entscheidungen der KI bildet, und zum anderen ob die hierauf basierende Schlussfolgerung der KI zulässig sind. Besonders im Recruiting-Bereich war es keine Seltenheit, dass die KI fehlerhafte Entscheidungen traf. Dadurch kam es oftmals zur Benachteiligung bestimmter Bewerbergruppen, wie z.B. Frauen. In solchen Fällen stellen sich vielerlei Fragen: Ist der Anwender verpflichtet, einzuschreiten oder sogar die KI abzuschalten, wenn diese gegen das Recht verstößt? Haftet der Anwender für etwaige Schäden?

Das deutsche Haftungsregime kann einige Fragen davon beantworten. Es kennt die Haftung für technische Systeme. Ein Anwender haftet, wenn durch das Betreiben der KI fahrlässig oder vorsätzlich eine Rechtsgutsverletzung an einem absoluten Recht (Leben, Körper, Gesundheit, Eigentum, sonstiges Recht) eingetreten ist, die zu einem Schaden geführt hat. In der Praxis ist ein vorwerfbares Fehlverhalten des Anwenders aber nur schwer nachweisbar. Außerdem mangelt es am vorwerfbaren Fehlverhalten dann, wenn die KI durch den Anwender beispielsweise ordnungsgemäß betrieben und gewartet worden ist und sie dennoch auf Basis des Erlernten „Fehlschlüsse“ zieht. Dies birgt Haftungslücken.

Für den Bereich des autonomen Fahrens hat der deutsche Gesetzgeber bereits Maßnahmen ergriffen. 2017 wurde im Straßenverkehrsgesetz klargestellt, dass der Mensch Fahrzeugführer bleibt, auch wenn er die Funktion zum autonomen Fahren aktiviert hat und nicht mehr eigenhändig das Fahrzeug steuert. Derartige Regelungen gab es für den HR-Bereich bis jetzt nicht. Allerdings soll dies sich in näherer Zukunft ändern.

KI-Verordnung und Datenschutz

Am 21. April 2021 hat die EU-Kommission einen Entwurf einer KI-Verordnung vorgelegt. Diese sieht vor, dass ein Anwender beim Einsatz von KI-Systemen mit hohem Risiko (wie z. B. bei Software zur Auswertung von Lebensläufen im Bewerbungsverfahren) eine Konformitätsbewertung durchführen muss, um nachzuweisen, dass die KI die verbindlichen Anforderungen an eine vertrauenswürdige KI entspricht. Diese Anforderungen bestehen beispielsweise in Bezug auf:

  • Datenqualität,
  • Dokumentation und Rückverfolgbarkeit,
  • Transparenz,
  • menschliche Aufsicht sowie
  • Genauigkeit und Robustheit.

Eine Bewertung muss erneut vorgenommen werden, wenn die künstliche Intelligenz später selbst oder ihr Zweck wesentlich geändert werden. Verstöße gegen die Verordnung sollen – je nach Schwere – mit Bußgeldern bis zu 30 Millionen Euro oder sechs Prozent des gesamten weltweiten Vorjahresumsatzes des Anwenderunternehmens geahndet werden.

Zusätzlich müssen Anwender die datenschutzrechtlichen Anforderungen der Datenschutz-Grundverordnung (DSGVO) einhalten, allen voran, die Prinzipien der Datenminimierung und Transparenz. Auch wenn eine Datenminimierung zunächst der Nutzung widersprechen könnte, da eine KI „um zu lernen“ mit einem großen Umfang von Daten versorgt werden muss, kann der Grundsatz nicht übergangen werden. Der Anwender muss deswegen technische und organisatorische Maßnahmen zum Schutz der personenbezogenen Daten implementieren und sicherstellen, dass der Mensch nicht zum Objekt herabgewürdigt oder diskriminiert wird.

KI im Recruiting – Arbeitsrecht

Der Einsatz von KI wird aus arbeitsrechtlicher Sicht vor allem mit Blick auf die Beteiligungsrechte des Betriebsrates sowie gegebenenfalls bestehender Entschädigungsansprüche von Bewerbern oder Mitarbeitern aufgrund des Einsatzes diskriminierender Algorithmen diskutiert.

  • Betriebsrätemodernisierungsgesetz soll Rechte des Betriebsrates stärken: Mit dem Betriebsrätemodernisierungsgesetz, das am 28. Juni 2021 in Kraft getreten ist, sollen nach dem Willen des Gesetzgebers die Beteiligungsrechte des Betriebsrates beim Einsatz von KI gestärkt werden. Neu eingefügt wurde in § 80 Abs. 3 BetrVG, dass der Betriebsrat beim Einsatz von KI einen Sachverständigen beauftragen kann, ohne dass es auf die Erforderlichkeit der Beauftragung ankommt. Der Einwand, dass der Betriebsrat selbst die erforderlichen Kenntnisse besitzt oder die Angelegenheit nicht die Einbindung eines teuren Sachverständigen rechtfertigt, ist dem Arbeitgeber damit verwehrt. Diese Änderung kann zu einer nicht unerheblichen Kostenlast für den Arbeitgeber führen. Zudem finden nun § 90 BetrVG (Unterrichtungsrecht bei der Planung von Arbeitsverfahren und Arbeitsabläufen) und § 95 BetrVG (Aufstellung von Auswahlrichtlinien) ausdrücklich auch dann Anwendung, wenn dabei künstliche Intelligenz zum Einsatz kommt. Es bleibt zudem bei der zwingenden Mitbestimmung nach § 87 Abs. 1 Nr. 6 BetrVG bei der Einführung und Anwendung von technischen Einrichtungen (hierzu zählt Hard- und Software), die objektiv geeignet ist, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen. Ist die Anwendung/Einführung von KI geplant, ist daher stets daran zu denken, den Betriebsrat entsprechend zu beteiligen.
  • Diskriminierung durch Algorithmen? Aber auch auf individualrechtlicher Ebene sind beim Einsatz von KI arbeitsrechtliche Fallstricke zu beachten. Arbeitgeber versprechen sich durch den Einsatz von KI im HR-Bereich eine Objektivierung des Auswahlprozesses. Allerdings kann diese Art der Mitarbeitersuche in einem Spannungsverhältnis zum Antidiskriminierungsrecht (AGG) stehen. Algorithmen können durchaus „voreingenommen“ und diskriminierend sein. Aufgrund einer fehlerhaften Datenbasis oder falscher Programmierung oder falscher „Schlussfolgerungen“ können sie somit zu einer mittelbaren Benachteiligung von Bewerbern führen, z. B. wegen ihres Geschlechts. Kommt es zu unzulässigen Diskriminierungen aufgrund des Einsatzes von Algorithmen, ist im Ergebnis der Arbeitgeber hierfür verantwortlich. Unzulässige Benachteiligungen können zu Schadensersatzansprüchen der Betroffenen nach dem AGG führen. So kann ein aufgrund einer unzulässigen Diskriminierung abgelehnter Bewerber bis zu drei Monatsgehälter als Entschädigung geltend machen (§ 15 Abs. 2 S. 2 AGG).

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Recruiting mit KI – Ethik

Der Einsatz von KI birgt nicht nur rechtliche Herausforderungen. Er kann auch unter ethischen und praktischen Gesichtspunkten fragwürdig sein. Dabei sind ethische und rechtliche Aspekte nicht immer trennscharf. So ist eine Diskriminierung von Bewerbern aufgrund von AGG-Merkmalen sowohl rechtswidrig als auch unethisch.
Zwar kann auch die menschliche Auswertung von Bewerbungen zu Diskriminierungen führen. Der Unterschied zwischen menschlicher und „technischer Diskriminierung“ liegt jedoch darin, dass KI aufgrund eines fehlerhaften Designs strukturell diskriminieren kann.

Fehlerhaft ist ein Design, wenn die KI auf Grundlage von Daten lernt und entscheidet, die bestehende soziale Ungleichheit abzubilden. Belegen historische Daten etwa, dass die durchschnittliche Führungskraft in Deutschland männlich, weiß und älter als 45 Jahre ist, so könnte KI unter Auswertung dieser Daten zu der Entscheidung gelangen, dass Bewerber, die weiblich, dunkelhäutig oder jünger als 45 Jahre sind, für die Besetzung einer Führungsposition ungeeignet sind. Die KI könnte in Folge dessen entscheiden, Bewerber allein aufgrund dieser AGG-relevanten Merkmalen nicht für eine Führungsposition zu empfehlen. Es ist evident, dass ein solcher auf AGG-relevante Merkmale verengter Entscheidungsprozess nicht nur unethisch ist, sondern auch zu Fehlentscheidungen führen kann.

Wie menschliche Intelligenz ist auch künstliche Intelligenz fehlbar, was Absicherungen gegen Fehlentscheidungen von KI erforderlich macht. Zu berücksichtigen ist insoweit, dass zum einen die Grundannahmen von KI falsch sein und zum anderen Menschen die KI durch Anpassungen ihres Verhaltens überlisten können.

Als Beispiel hierfür kann eine KI-Anwendung dienen, welche die Sprache von Bewerbern auswertet und aus dieser Auswertung auf die Persönlichkeit der Bewerber schließt. Die Grundannahme dieser KI, dass die verwendete Sprache Rückschlüsse auf die Persönlichkeit eines Menschen erlaube, trifft nicht zwingend zu, zumal nicht in Bewerbungsverfahren, in denen ein Anreiz zur Verstellung besteht. Es macht aus Bewerbersicht Sinn, die eigene Sprache so anzupassen, dass diese vermeintlich dem Stellenprofil entspricht. Daher muss damit gerechnet werden, dass Bewerber unabhängig von ihrem Charakter und Verhalten Begriffe wie „durchsetzungsstark“, „dynamisch“ oder „handlungsstark“ verwenden, wenn sie sich auf Führungspositionen oder mit Maskulinität assoziierte Stellen bewerben. In diesem Fall würden Bewerber durch eine Anpassung ihrer Sprache die KI überlisten und deren Grundannahme ad absurdum führen.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

To-Dos vor dem KI-Einsatz

Der Einsatz von KI muss unter Berücksichtigung zivil-, datenschutz- und arbeitsrechtlicher Vorgaben erfolgen. Unternehmen sollten sich darüber hinaus der ethischen Implikationen und der Grenzen von KI bewusst sein. Der Einsatz von KI kann zu Haftungen und Fehlentscheidungen führen. Nicht nur das Gesetz (z.B. Art. 22 DSGVO) setzt einer automatisierten Entscheidung durch KI Grenzen. Vor allem auch aus ethischen Gründen sollten Entscheidungen im HR-Bereich nicht nur auf KI beruhen. Vielmehr sollte sie den Menschen bei seiner Entscheidung unterstützen und so auch zugleich zu mehr Objektivität der menschlichen Entscheidung führen.

Vor dem Erwerb oder der Erstellung von KI sollten deshalb sowohl rechtliche als auch ethische Anforderungen abgefragt und sichergestellt werden. Neben einer offenen Kommunikation mit dem Entwickler des KI-Tools empfiehlt sich deshalb eine enge Abstimmung mit der Rechtsabteilung oder mit im KI-Bereich versierten Rechtsanwälten.

*Mareike Christine Gehrmann ist Salary Partner bei der Wirtschaftskanzlei Taylor Wessing und Fachanwältin für Informationstechnologierecht. Sie ist spezialisiert auf die Technologie-Branche und den Bereich Datenschutz. Dort begleitet sie Unternehmen und Behörden bei der erfolgreichen Umsetzung komplexer Digitalisierungsprojekte (u.a. IT-Beschaffung, Agile Softwareprojekte, IT-Sourcing) und berät zu Lizenzmanagement, Datenschutz und Cyber-Security. Zudem verfügt sie über umfangreiche Erfahrungen beim Führen komplexer Gerichts- und DIS-Schiedsverfahren. Seit 2015 ist sie Mitglied im Expertennetzwerk der Computerwoche.

**Christiane Eckert ist Compliance Officer bei MAN Energy Solutions.

***Anne Förster ist Fachanwältin für Arbeitsrecht bei Taylor Wessing und berät nationale und internationale Unternehmen in allen Bereichen des Individual- und Kollektivarbeitsrechts. Sie fokussiert sich dabei auf den Bereich Arbeitnehmerüberlassung und den rechtskonformen Einsatz von Fremdpersonal. Hier verfügt sie über eine langjährige Branchen-Expertise im IT-Bereich und ist sehr erfahren bei der arbeitsrechtlichen Gestaltung agiler Projekte.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*