Verantwortung für Fehler der KI und KI-Inhalte

Im Februar 2024 befasste sich ein Gericht in British Columbia mit folgendem Fall: Der Chatbot einer Fluggesellschaft hatte dem Kunden falsche Informationen über die rückwirkende Gewährung eines Trauerrabatts gegeben. [...]

Mag. Andreas Schütz und Tereza Grünvaldska sind Juristen der Kanzlei Taylor-Wessing. (c) Taylor-Wessing
Mag. Andreas Schütz und Tereza Grünvaldska sind Juristen der Kanzlei Taylor-Wessing. (c) Taylor-Wessing

Die Fluggesellschaft lehnte eine Rückerstattung mit der Begründung ab, dass der Chatbot eine eigenständige Einheit sei und sie daher nicht für dessen Fehler hafte. Das Gericht entschied, dass die Fluggesellschaft den Differenzbetrag erstatten muss, da KI-Systeme nicht selbst haften können. Die Frage der Verantwortung für KI scheint zunehmend relevant zu werden.

Da KI-Systeme keine Rechtspersonen sind und für Fehler nicht selbst haften können, richten sich die derzeit geltenden allgemeinen Schadenersatzregeln gegen den Betreiber oder Hersteller des Systems. Eine vertragliche Haftung könnte sich etwa aus den Nutzungsbedingungen ergeben. Denkbar sind auch Ansprüche aus (Software-)Miet- oder Kaufverträgen. Das kann aber zu Beweisproblemen führen, da für Nutzer oft unklar ist, wer hinter dem KI-System steht. Eine ähnliche Haftung wie bei Autos (wo schon aufgrund Gefährlichkeit gehaftet wird) gibt es derzeit für KI nicht.

Die neue Produkthaftungsrichtlinie könnte hier Abhilfe schaffen, da sie den „Produktbegriff“ auf Software ausweitet und den „Fehlerbegriff“ präzisiert. Ein Produkt gilt demnach als fehlerhaft, wenn es die Sicherheitserwartungen der Endnutzer nicht erfüllt. Die geplante KI-Haftungsrichtlinie könnte zudem die Beweisführung vereinfachen und widerlegbare Vermutungsregeln einführen. Dazu müssen sich noch EU-Parlament und Rat äußern.

KI wird zudem mit großen Datenmengen trainiert, oft mit Hilfe von Text- und Data-Mining (TDM). Auch geschützte Inhalte können in die Datensätze einfließen und zu Urheberrechtsverletzungen führen. Kürzlich hatte das Landgericht Hamburg zu entscheiden: Ein Fotograf hatte gegen die gemeinnützige Organisation LAION geklagt, welche Datensätze für maschinelles Lernen öffentlich bereitstellt. Das Gericht entschied in diesem Urteil, dass die Erstellung der Datensätze unter die freie Werknutzung für TDM für Forschungszwecke fällt. Offen blieb, ob auch ein nachfolgendes KI-Training mit diesem Datensatz zulässig ist. Der Urheber kann das „allgemeine“ TDM (nicht zu Forschungszwecken) seiner Werke mit Nutzungsvorbehalt untersagen. Diesen muss eine Maschine lesen können (z.B. robots.txt Format). Dazu sprach das Gericht aus, dass es auch einen Vorbehalt in natürlicher Sprache (etwa Textform) für ausreichend hält. Hier wird die Instanz das letzte Wort haben. Die zunehmende Integration von KI-Systemen wirft wichtige Haftungs- und Urheberrechtsfragen auf. Die ersten Gerichtsentscheidungen werden getroffen, und es ist ratsam, dass sowohl Hersteller als auch Anwender diese im Auge behalten. 

*Mag. Andreas Schütz und Tereza Grünvaldska sind Juristen der Kanzlei Taylor-Wessing.


Mehr Artikel

Otto Neuer, Regional VP und General Manager bei Denodo. (c) Denodo
Kommentar

Wie logisches Datenmanagement das ESG-Reporting vereinfacht

Mit zunehmendem Bewusstsein für Nachhaltigkeitsthemen wächst auch der Druck, den Stakeholder diesbezüglich auf Unternehmen ausüben. Gerade auf Seiten der Gesetzesgeber entstehen vermehrt Richtlinien, die „ESG“ (Enviornmental, Social und Governance)-Anliegen vorantreiben und Unternehmen zu mehr Transparenz in Form von entsprechender Berichterstattung verpflichten. […]

Frank Schwaak, Field CTO EMEA bei Rubrik (c) Rubrik
Kommentar

Wie CIOs Unternehmen als Cloud-Lotse sicher durch Daten- und Sicherheitsrisiken führen

In einer fragmentierten Infrastruktur ist es herausfordernd, den Durchblick über Daten und Kosten zu behalten. CIOs werden zu Lotsen, die das Unternehmen sicher durch die unterschiedlichen Cloud-Umgebungen steuern müssen. Was können Unternehmen also tun, um den Überblick über Cloud-Anwendungen zu behalten und den Kurs zwischen Cloud und Cyberresilienz zu halten? […]

Ass. Prof. Dr. Johannes Brandstetter, Chief Researcher bei NXAI (c) NXAI
News

KI-Forschung in Österreich: Deep-Learning zur Simulation industrieller Prozesse

Als erstes Team weltweit präsentiert das NXAI-Forscherteam um Johannes Brandstetter eine End-to-End-Deep-Learning Alternative zur Modifizierung industrieller Prozesse, wie Wirbelschichtreaktoren oder Silos. Das Team strebt schnelle Echtzeit-Simulationen an, plant den Aufbau von Foundation Models für Industriekunden und fokussiert sich im nächsten Schritt auf die Generalisierung von Simulationen. […]

News

Die besten Arbeitgeber der Welt

Great Place To Work hat durch die Befragung von mehr als 7,4 Millionen Mitarbeitenden in den Jahren 2023 und 2024 die 25 World’s Best Workplaces identifiziert. 6 dieser Unternehmen wurden auch in Österreich als Best Workplaces ausgezeichnet. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*