Verantwortung für Fehler der KI und KI-Inhalte

Im Februar 2024 befasste sich ein Gericht in British Columbia mit folgendem Fall: Der Chatbot einer Fluggesellschaft hatte dem Kunden falsche Informationen über die rückwirkende Gewährung eines Trauerrabatts gegeben. [...]

Mag. Andreas Schütz und Tereza Grünvaldska sind Juristen der Kanzlei Taylor-Wessing. (c) Taylor-Wessing
Mag. Andreas Schütz und Tereza Grünvaldska sind Juristen der Kanzlei Taylor-Wessing. (c) Taylor-Wessing

Die Fluggesellschaft lehnte eine Rückerstattung mit der Begründung ab, dass der Chatbot eine eigenständige Einheit sei und sie daher nicht für dessen Fehler hafte. Das Gericht entschied, dass die Fluggesellschaft den Differenzbetrag erstatten muss, da KI-Systeme nicht selbst haften können. Die Frage der Verantwortung für KI scheint zunehmend relevant zu werden.

Da KI-Systeme keine Rechtspersonen sind und für Fehler nicht selbst haften können, richten sich die derzeit geltenden allgemeinen Schadenersatzregeln gegen den Betreiber oder Hersteller des Systems. Eine vertragliche Haftung könnte sich etwa aus den Nutzungsbedingungen ergeben. Denkbar sind auch Ansprüche aus (Software-)Miet- oder Kaufverträgen. Das kann aber zu Beweisproblemen führen, da für Nutzer oft unklar ist, wer hinter dem KI-System steht. Eine ähnliche Haftung wie bei Autos (wo schon aufgrund Gefährlichkeit gehaftet wird) gibt es derzeit für KI nicht.

Die neue Produkthaftungsrichtlinie könnte hier Abhilfe schaffen, da sie den „Produktbegriff“ auf Software ausweitet und den „Fehlerbegriff“ präzisiert. Ein Produkt gilt demnach als fehlerhaft, wenn es die Sicherheitserwartungen der Endnutzer nicht erfüllt. Die geplante KI-Haftungsrichtlinie könnte zudem die Beweisführung vereinfachen und widerlegbare Vermutungsregeln einführen. Dazu müssen sich noch EU-Parlament und Rat äußern.

KI wird zudem mit großen Datenmengen trainiert, oft mit Hilfe von Text- und Data-Mining (TDM). Auch geschützte Inhalte können in die Datensätze einfließen und zu Urheberrechtsverletzungen führen. Kürzlich hatte das Landgericht Hamburg zu entscheiden: Ein Fotograf hatte gegen die gemeinnützige Organisation LAION geklagt, welche Datensätze für maschinelles Lernen öffentlich bereitstellt. Das Gericht entschied in diesem Urteil, dass die Erstellung der Datensätze unter die freie Werknutzung für TDM für Forschungszwecke fällt. Offen blieb, ob auch ein nachfolgendes KI-Training mit diesem Datensatz zulässig ist. Der Urheber kann das „allgemeine“ TDM (nicht zu Forschungszwecken) seiner Werke mit Nutzungsvorbehalt untersagen. Diesen muss eine Maschine lesen können (z.B. robots.txt Format). Dazu sprach das Gericht aus, dass es auch einen Vorbehalt in natürlicher Sprache (etwa Textform) für ausreichend hält. Hier wird die Instanz das letzte Wort haben. Die zunehmende Integration von KI-Systemen wirft wichtige Haftungs- und Urheberrechtsfragen auf. Die ersten Gerichtsentscheidungen werden getroffen, und es ist ratsam, dass sowohl Hersteller als auch Anwender diese im Auge behalten. 

*Mag. Andreas Schütz und Tereza Grünvaldska sind Juristen der Kanzlei Taylor-Wessing.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*