Vorgeschlagene EU-Haftungsregeln für KI schützen Opfer

Die EU-Kommission legt einen neuen Entwurf zur Anpassung der Haftungsregeln für KI-basierte Systeme vor: die AI Liability Directive. Der Vorschlag soll den Verbraucherschutz verbessern, fördert aber auch die Innovation und die Einführung vertrauenswürdiger KI-Systeme. [...]

Foto: GerdAltmann/Pixabay

Ein Kommentar von Peter van der Putten, Director AI Lab bei Pegasystems & Assistant Professor AI an der Universität Leiden.

Man stelle sich einen Bewerber vor, der glaubt, in einem KI-basierten Einstellungsprozess diskriminiert worden zu sein. Der tatsächliche Schaden ist klar: nicht nur hat er den Job nicht bekommen, er vermutet auch noch, dass eine ungerechte Behandlung der Grund dafür ist.

Nicht nachvollziehbar ist für ihn als Opfer, wie das System zu seiner Entscheidung gekommen ist und inwieweit diese Entscheidung voreingenommen war.

Der neue Entwurf zur Anpassung der Haftungsregeln für KI-basierte Systeme hilft in solchen und anderen Situationen in zweierlei Hinsicht: Organisationen, die KI-basierte Systeme einsetzen, müssen Zugang zu Beweisen gewähren. Sie müssten also beispielsweise Daten und Erklärungen dazu liefern, wie die automatisierten Entscheidungen oder Empfehlungen zustande gekommen sind.

Außerdem wird die Beweislast dafür, dass der Schaden nicht durch einen relevanten Fehler oder eine schlechte Leistung des KI-Systems verursacht wurde, stärker in Richtung der KI einsetzenden Organisation verlagert. Das ist sinnvoll, da die Beziehung zwischen Daten und Entscheidungen komplex und hochgradig personalisiert sein kann.

Doch wie stärken die vorgeschlagenen Haftungsregeln nicht nur die Opfer, sondern auch die Unternehmen, die KI in einer vertrauenswürdigen Weise einsetzen?

Da es noch keine harmonisierten KI-Haftungsregeln gibt und auch der EU AI Act noch verhandelt wird, füllt der aktuelle, mit den allgemeinen Produkthaftungsregeln in der EU abgestimmte Vorschlag eine Lücke.

Die neue Perspektive der EU ist richtungsweisend, denn in einigen Regionen der Welt sind die Möglichkeiten, Organisationen auf Haftung zu verklagen, sehr weit gefasst sind – etwa in den USA.

Dort kann ein Kunde, der eine heiße Tasse Kaffee verschüttet und über ausreichende Mittel verfügt, ein Restaurant verklagen. Für solche Fälle stehen eine ganze Prozessindustrie und Anwälte bereit, die versuchen, daraus Kapital zu schlagen.

Der Entwurf zielt darauf ab, einen realistischeren und gerechteren Rahmen zu schaffen – auch für Unternehmen, die  Künstliche Intelligenz verwenden: Der Schaden und die Beeinträchtigung müssen eindeutig und der konkrete Anwendungsfall maßgeblich sein.

Zudem muss der Schaden durch ein fehlerhaftes Verhalten oder eine unrechtmäßige Nutzung der KI-Technologie verursacht worden sein. Nur wenn die Schuld oder der Schaden nachgewiesen ist und ein Kausalzusammenhang mit der KI hinreichend wahrscheinlich erscheint, tritt die „Kausalitätsvermutung“ in Kraft.

Erst dann muss das Unternehmen, das die künstliche Intelligenz (KI) einsetzt, Daten und Beweise dafür vorlegen, dass alles mit rechten Dingen zuging.

Auf diese Weise setzt die neue Richtlinie einige klare Grenzen. Unternehmen, die KI für gute Zwecke und auf rechtmäßige Art und Weise einsetzen, haben nicht viel zu befürchten.

Gemeint sind Organisationen, die ihre KI beispielsweise auf Voreingenommenheit prüfen, vollständige Prüfpfade für wesentliche Entscheidungen aufbewahren und automatische Erklärungsmöglichkeiten für KI-gesteuerte Entscheidungen nutzen.

Zudem wird die neue Richtlinie für gleiche Wettbewerbsbedingungen sorgen: Der vertrauenswürdige Einsatz von KI wird belohnt, während der Einsatz von KI für schlechte Zwecke oder auf unrechtmäßige Art und Weise bestraft wird.

Darüber hinaus wird die Haftungsrichtlinie dafür sorgen, dass jede in der EU tätige Organisation die Vorschriften einhalten muss.

Wenn dieser Vorschlag also angenommen wird, schützt er sowohl Kunden und Bürger als auch Organisationen, die KI vernünftig einsetzen.

Dieser Fortschritt ist ein Zeichen dafür, dass die vertrauenswürdige Nutzung von KI reift – sowohl auf technischer als auch auf regulatorischer Ebene.

powered by www.it-daily.net


Mehr Artikel

News

Mehr als nur ein Compliance-Kriterium: Cybersicherheit ist eine Angelegenheit der Unternehmenskultur

Ein Blick in die Praxis zeigt: IT-Sicherheit scheitert nicht an Technologien oder Fehlverhalten, sondern bereits grundsätzlich an einem Mangel an Unternehmenskultur. Wenn Cybersicherheit in einer Organisation nur als eine schlecht durchgesetzte Aufgabe von anderen für andere verstanden wird, entsteht vielleicht eine oberflächliche Compliance, aber keine wirkliche Cyberresilienz. […]

Michael Maier, Director Austria iteratec (c) iteratec
Kommentar

KI-Transformation in Unternehmen – Eine Revolution in fünf Schritten 

Wie weit wird die Evolution der Künstlichen Intelligenz gehen und wie wird sie sich auf Wirtschaft und Gesellschaft als Ganzes auswirken? Was für Privatpersonen interessante Fragen sind, sind für Unternehmer existenzielle Themen, schließlich müssen diese wirtschaftlich gegenüber Konkurrenten bestehen, von denen viele bereits an einer effektiven Nutzung von KI arbeiten. […]

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*