Im Februar 2024 befasste sich ein Gericht in British Columbia mit folgendem Fall: Der Chatbot einer Fluggesellschaft hatte dem Kunden falsche Informationen über die rückwirkende Gewährung eines Trauerrabatts gegeben. [...]
Die Fluggesellschaft lehnte eine Rückerstattung mit der Begründung ab, dass der Chatbot eine eigenständige Einheit sei und sie daher nicht für dessen Fehler hafte. Das Gericht entschied, dass die Fluggesellschaft den Differenzbetrag erstatten muss, da KI-Systeme nicht selbst haften können. Die Frage der Verantwortung für KI scheint zunehmend relevant zu werden.
Da KI-Systeme keine Rechtspersonen sind und für Fehler nicht selbst haften können, richten sich die derzeit geltenden allgemeinen Schadenersatzregeln gegen den Betreiber oder Hersteller des Systems. Eine vertragliche Haftung könnte sich etwa aus den Nutzungsbedingungen ergeben. Denkbar sind auch Ansprüche aus (Software-)Miet- oder Kaufverträgen. Das kann aber zu Beweisproblemen führen, da für Nutzer oft unklar ist, wer hinter dem KI-System steht. Eine ähnliche Haftung wie bei Autos (wo schon aufgrund Gefährlichkeit gehaftet wird) gibt es derzeit für KI nicht.
Die neue Produkthaftungsrichtlinie könnte hier Abhilfe schaffen, da sie den „Produktbegriff“ auf Software ausweitet und den „Fehlerbegriff“ präzisiert. Ein Produkt gilt demnach als fehlerhaft, wenn es die Sicherheitserwartungen der Endnutzer nicht erfüllt. Die geplante KI-Haftungsrichtlinie könnte zudem die Beweisführung vereinfachen und widerlegbare Vermutungsregeln einführen. Dazu müssen sich noch EU-Parlament und Rat äußern.
KI wird zudem mit großen Datenmengen trainiert, oft mit Hilfe von Text- und Data-Mining (TDM). Auch geschützte Inhalte können in die Datensätze einfließen und zu Urheberrechtsverletzungen führen. Kürzlich hatte das Landgericht Hamburg zu entscheiden: Ein Fotograf hatte gegen die gemeinnützige Organisation LAION geklagt, welche Datensätze für maschinelles Lernen öffentlich bereitstellt. Das Gericht entschied in diesem Urteil, dass die Erstellung der Datensätze unter die freie Werknutzung für TDM für Forschungszwecke fällt. Offen blieb, ob auch ein nachfolgendes KI-Training mit diesem Datensatz zulässig ist. Der Urheber kann das „allgemeine“ TDM (nicht zu Forschungszwecken) seiner Werke mit Nutzungsvorbehalt untersagen. Diesen muss eine Maschine lesen können (z.B. robots.txt Format). Dazu sprach das Gericht aus, dass es auch einen Vorbehalt in natürlicher Sprache (etwa Textform) für ausreichend hält. Hier wird die Instanz das letzte Wort haben. Die zunehmende Integration von KI-Systemen wirft wichtige Haftungs- und Urheberrechtsfragen auf. Die ersten Gerichtsentscheidungen werden getroffen, und es ist ratsam, dass sowohl Hersteller als auch Anwender diese im Auge behalten.
*Mag. Andreas Schütz und Tereza Grünvaldska sind Juristen der Kanzlei Taylor-Wessing.
Be the first to comment