Künstliche Intelligenz (KI) galt lange Zeit als ein Mysterium, das man nur aus Filmen wie »iRobot« oder »Terminator« kannte. Mit ChatGPT, DALL-E und anderen Tools ist die KI nun auch im realen Alltag angekommen. [...]
KI-Tools, die mit einem unterschiedlichen Grad an Autonomie Inhalte wie Gedichte, Geschichten, Werbetexte, aber auch Bilder, Audio- und Videodateien generieren, fallen im Sinne des Vorschlags zur KI-Verordnung unter »Generative KI-Systeme« (GKS). Diese Werkzeuge helfen beim kreativen Schaffungsprozess und können ganze Aufsätze oder Bilder in einem bestimmten oder gar neuen Stil kreieren. Bereits vorhandener Content kann aber auch manipuliert werden und durch sogenannte Deepfakes neue Gefahren hervorrufen. Diese durch KI erzeugten oder veränderten Medieninhalte können nämlich nicht nur Reputationsverluste – von Personen öffentlichen Interesses oder Privatpersonen – zur Folge haben, sondern auch zu einer Gefährdung der Demokratie und der freien Meinungsbildung führen. Aus diesem Grund ist – wie auch bei Hochrisiko-KI-Systemen (HKS) – die Transparenz eine absolute Notwendigkeit.
Jede:r Nutzer:in muss bei der Anwendung oder einem von GKS generierten Inhalt rechtzeitig, klar und verständlich darüber informiert werden, dass mit einem KI-System und keinem Menschen interagiert wird. Es ist auch darauf hinzuweisen, dass Inhalte (wie Deepfakes) künstlich von KI erzeugt bzw. manipuliert wurden.
Neben ihrer Transparenzverpflichtung müssen GKS den Schutz vor Erzeugung unionsrechtswidriger Inhalte sicherstellen. Dies umfasst vor allem den Schutz von Immaterialgüterrechten wie Marken- oder Urheberrecht (Künstler, Autoren, etc.), aber auch das Recht auf freie Meinungsäußerung und Meinungsbildung. Für das Funktionieren von GKS wie ChatGPT oder DALL-E wird das KI-System mit einer Vielzahl an Daten gefüttert und trainiert. Diese für das GKS benötigten – und unter Umständen, urheberrechtlich geschützten – Trainingsdaten müssen vom Anbieter dokumentiert, zusammenzufasst und öffentlich einsehbar gemacht werden.
Die EU-Kommission und das Amt für KI haben dabei eine Überwachungs- und Bewertungsfunktion, da sich im Zusammenhang mit GKS auch Fragen hinsichtlich der Erzeugung von Inhalten stellen. Hier werden vor allem solche Inhalte überprüft, die gegen das Unionsrecht und die Urheberrechtsvorschriften verstoßen und den Missbrauch dieser Tools wie z.B. durch persönlichkeitsverletzende Deepfake-Videos offenlegen. Obwohl GKS im Gegensatz zu HKS im täglichen Gebrauch häufiger genutzt werden, sind die Regeln für Anwender überschaubar. Die Pflichten zur Transparenz und der Veröffentlichung der Trainingsdaten geben einen ersten Einblick in die Sicherheitsmaßnahmen der GKS. Ob diese den Missbrauch tatsächlich verhindern können, ist derzeit noch offen.
*Die Autoren Mag. Julia Allen und Mag. Andreas Schütz sind Juristen der Kanzlei Taylor-Wessing.
Be the first to comment