Beim Thema künstliche Intelligenz denkt man in erster Linie an Roboter wie etwa im Film Ex-Machina. Die derzeitig sich im Einsatz befindenden KIs sind zwar noch nicht soweit, um es mit jenen in der Fiktion aufzunehmen, dennoch finden sie bereits Anwendung im Wirtschafts- und im täglichen Leben. [...]
Durch die neuen Herausforderungen in Bezug auf die Sicherheit entstehen neue Anforderungen im Zusammenhang mit der Haftung. Aufgrund dessen hat sich die EU mit dem Entwurf einer KI-Haftungsrichtlinie befasst. Derzeit ist der Haftungsrahmen von KI fraglich. Grundsätzlich gelten die Regeln der Verschuldenshaftung, d.h. der Benutzer einer KI, der die Kontrolle über das damit verbundene Risiko hat, (»Deployer«) haftet für schuldhaftes Fehlverhalten. Jedoch ist der Nachweis im Einzelnen schwierig. Unklar ist, ob die verschuldensunabhängige Produkthaftung auf einen Deployer und/oder den (Software-)Hersteller (»Producer«) anwendbar ist. Es besteht ein Konsens in Bezug auf die Haftung, wenn die Software, durch einen physischen Datenträger »verkörpert« wird. Fraglich ist, ob ein Deployer auch bei digitaler Bereitstellung der Software haftet. Aus diesem Grund wurde vom Rechtsausschuss des EU-Parlaments ein Bericht veröffentlicht, der Empfehlungen für ein zivilrechtliches Haftungssystem für KI beinhaltet.
Dieser Entwurf wird erst durch das Gesetzgebungsverfahren finalisiert, ein erster Blick lohnt sich jedoch bereits jetzt. Der vorgeschlagene Haftungsrahmen bezieht sich dabei auf die Deployer. Wenn ein KI-System von mehreren Deployern eingesetzt wird, dann haften sie gemeinsam. Die jeweiligen KI-Systeme werden in zwei Kategorien unterteilt – »high-risk« und »other AI systems«. Risikoreiche KIs sind solche, von denen eine hinreichende Wahrscheinlichkeit ausgeht, dass Personenschäden zufällig und auf unvorhergesehene Weise verursacht werden könnten, weshalb eine verschuldensunabhängige Haftung angedacht ist. Dabei kommt es insbesondere auf die Wahrscheinlichkeit des Auftretens, die Schwere des zu erwartenden Schadens und den Einsatz der KI an.
Außerdem muss der Deployer eine dem Risiko der high-risk KI entsprechende Versicherung haben. Derzeit ist geplant, dass risikoreiche KI-Systeme am Ende der Richtlinie taxativ aufgezählt werden. Andere KI-Systeme fallen nur bei Verschulden des Deployers unter den Haftungsrahmen, wobei Verschulden solange vermutet wird, bis es zu einem Gegenbeweis kommt. Im Fall, dass der Deployer haftet und die Ansprüche des Betroffenen erfüllt, kann sich dieser beim Producer regressieren. Durch die geplante KI-Richtlinie sollen etwaige Lücken im Bereich der Produkthaftung in Bezug auf KI-Systeme geschlossen werden und es wurde klargestellt, dass die Produkthaftungsrichtlinie auf Softwarehersteller anwendbar ist. Auch wenn der Aufstand der Roboter noch in weiter Zukunft liegt, lohnt es sich, das Thema zu verfolgen. Der Entwurf der KI-Richtlinie ist zwar noch nicht final, dennoch sollten sich Unternehmen mit diesem Thema auseinandersetzen. Denn eines ist sicher: Ein Haftungsrahmen für KI ist unerlässlich und wird früher oder später kommen.
Be the first to comment