Vorgeschlagene EU-Haftungsregeln für KI schützen Opfer

Die EU-Kommission legt einen neuen Entwurf zur Anpassung der Haftungsregeln für KI-basierte Systeme vor: die AI Liability Directive. Der Vorschlag soll den Verbraucherschutz verbessern, fördert aber auch die Innovation und die Einführung vertrauenswürdiger KI-Systeme. [...]

Foto: GerdAltmann/Pixabay

Ein Kommentar von Peter van der Putten, Director AI Lab bei Pegasystems & Assistant Professor AI an der Universität Leiden.

Man stelle sich einen Bewerber vor, der glaubt, in einem KI-basierten Einstellungsprozess diskriminiert worden zu sein. Der tatsächliche Schaden ist klar: nicht nur hat er den Job nicht bekommen, er vermutet auch noch, dass eine ungerechte Behandlung der Grund dafür ist.

Nicht nachvollziehbar ist für ihn als Opfer, wie das System zu seiner Entscheidung gekommen ist und inwieweit diese Entscheidung voreingenommen war.

Der neue Entwurf zur Anpassung der Haftungsregeln für KI-basierte Systeme hilft in solchen und anderen Situationen in zweierlei Hinsicht: Organisationen, die KI-basierte Systeme einsetzen, müssen Zugang zu Beweisen gewähren. Sie müssten also beispielsweise Daten und Erklärungen dazu liefern, wie die automatisierten Entscheidungen oder Empfehlungen zustande gekommen sind.

Außerdem wird die Beweislast dafür, dass der Schaden nicht durch einen relevanten Fehler oder eine schlechte Leistung des KI-Systems verursacht wurde, stärker in Richtung der KI einsetzenden Organisation verlagert. Das ist sinnvoll, da die Beziehung zwischen Daten und Entscheidungen komplex und hochgradig personalisiert sein kann.

Doch wie stärken die vorgeschlagenen Haftungsregeln nicht nur die Opfer, sondern auch die Unternehmen, die KI in einer vertrauenswürdigen Weise einsetzen?

Da es noch keine harmonisierten KI-Haftungsregeln gibt und auch der EU AI Act noch verhandelt wird, füllt der aktuelle, mit den allgemeinen Produkthaftungsregeln in der EU abgestimmte Vorschlag eine Lücke.

Die neue Perspektive der EU ist richtungsweisend, denn in einigen Regionen der Welt sind die Möglichkeiten, Organisationen auf Haftung zu verklagen, sehr weit gefasst sind – etwa in den USA.

Dort kann ein Kunde, der eine heiße Tasse Kaffee verschüttet und über ausreichende Mittel verfügt, ein Restaurant verklagen. Für solche Fälle stehen eine ganze Prozessindustrie und Anwälte bereit, die versuchen, daraus Kapital zu schlagen.

Der Entwurf zielt darauf ab, einen realistischeren und gerechteren Rahmen zu schaffen – auch für Unternehmen, die  Künstliche Intelligenz verwenden: Der Schaden und die Beeinträchtigung müssen eindeutig und der konkrete Anwendungsfall maßgeblich sein.

Zudem muss der Schaden durch ein fehlerhaftes Verhalten oder eine unrechtmäßige Nutzung der KI-Technologie verursacht worden sein. Nur wenn die Schuld oder der Schaden nachgewiesen ist und ein Kausalzusammenhang mit der KI hinreichend wahrscheinlich erscheint, tritt die „Kausalitätsvermutung“ in Kraft.

Erst dann muss das Unternehmen, das die künstliche Intelligenz (KI) einsetzt, Daten und Beweise dafür vorlegen, dass alles mit rechten Dingen zuging.

Auf diese Weise setzt die neue Richtlinie einige klare Grenzen. Unternehmen, die KI für gute Zwecke und auf rechtmäßige Art und Weise einsetzen, haben nicht viel zu befürchten.

Gemeint sind Organisationen, die ihre KI beispielsweise auf Voreingenommenheit prüfen, vollständige Prüfpfade für wesentliche Entscheidungen aufbewahren und automatische Erklärungsmöglichkeiten für KI-gesteuerte Entscheidungen nutzen.

Zudem wird die neue Richtlinie für gleiche Wettbewerbsbedingungen sorgen: Der vertrauenswürdige Einsatz von KI wird belohnt, während der Einsatz von KI für schlechte Zwecke oder auf unrechtmäßige Art und Weise bestraft wird.

Darüber hinaus wird die Haftungsrichtlinie dafür sorgen, dass jede in der EU tätige Organisation die Vorschriften einhalten muss.

Wenn dieser Vorschlag also angenommen wird, schützt er sowohl Kunden und Bürger als auch Organisationen, die KI vernünftig einsetzen.

Dieser Fortschritt ist ein Zeichen dafür, dass die vertrauenswürdige Nutzung von KI reift – sowohl auf technischer als auch auf regulatorischer Ebene.

powered by www.it-daily.net


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*