Generative KI-Systeme

Künstliche Intelligenz (KI) galt lange Zeit als ein Mysterium, das man nur aus Filmen wie »iRobot« oder »Terminator« kannte. Mit ChatGPT, DALL-E und anderen Tools ist die KI nun auch im realen Alltag angekommen. [...]

Mag. Andreas Schütz und Mag. Julia Allen sind Juristen der Kanzlei Taylor-Wessing. (c) Taylor-Wessing
Mag. Andreas Schütz und Mag. Julia Allen sind Juristen der Kanzlei Taylor-Wessing. (c) Taylor-Wessing

KI-Tools, die mit einem unterschiedlichen Grad an Autonomie Inhalte wie Gedichte, Geschichten, Werbetexte, aber auch Bilder, Audio- und Videodateien generieren, fallen im Sinne des Vorschlags zur KI-Verordnung unter »Generative KI-Systeme« (GKS). Diese Werkzeuge helfen beim kreativen Schaffungsprozess und können ganze Aufsätze oder Bilder in einem bestimmten oder gar neuen Stil kreieren. Bereits vorhandener Content kann aber auch manipuliert werden und durch sogenannte Deepfakes neue Gefahren hervorrufen. Diese durch KI erzeugten oder veränderten Medieninhalte können nämlich nicht nur Reputationsverluste – von Personen öffentlichen Interesses oder Privatpersonen – zur Folge haben, sondern auch zu einer Gefährdung der Demokratie und der freien Meinungsbildung führen. Aus diesem Grund ist – wie auch bei Hochrisiko-KI-Systemen (HKS) – die Transparenz eine absolute Notwendigkeit.

Jede:r Nutzer:in muss bei der Anwendung oder einem von GKS generierten Inhalt rechtzeitig, klar und verständlich darüber informiert werden, dass mit einem KI-System und keinem Menschen interagiert wird. Es ist auch darauf hinzuweisen, dass Inhalte (wie Deepfakes) künstlich von KI erzeugt bzw. manipuliert wurden.

Neben ihrer Transparenzverpflichtung müssen GKS den Schutz vor Erzeugung unionsrechtswidriger Inhalte sicherstellen. Dies umfasst vor allem den Schutz von Immaterialgüterrechten wie Marken- oder Urheberrecht (Künstler, Autoren, etc.), aber auch das Recht auf freie Meinungsäußerung und Meinungsbildung. Für das Funktionieren von GKS wie ChatGPT oder DALL-E wird das KI-System mit einer Vielzahl an Daten gefüttert und trainiert. Diese für das GKS benötigten – und unter Umständen, urheberrechtlich geschützten – Trainingsdaten müssen vom Anbieter dokumentiert, zusammenzufasst und öffentlich einsehbar gemacht werden.

Die EU-Kommission und das Amt für KI haben dabei eine Überwachungs- und Bewertungsfunktion, da sich im Zusammenhang mit GKS auch Fragen hinsichtlich der Erzeugung von Inhalten stellen. Hier werden vor allem solche Inhalte überprüft, die gegen das Unionsrecht und die Urheberrechtsvorschriften verstoßen und den Missbrauch dieser Tools wie z.B. durch persönlichkeitsverletzende Deepfake-Videos offenlegen. Obwohl GKS im Gegensatz zu HKS im täglichen Gebrauch häufiger genutzt werden, sind die Regeln für Anwender überschaubar. Die Pflichten zur Transparenz und der Veröffentlichung der Trainingsdaten geben einen ersten Einblick in die Sicherheitsmaßnahmen der GKS. Ob diese den Missbrauch tatsächlich verhindern können, ist derzeit noch offen.

*Die Autoren Mag. Julia Allen und Mag. Andreas Schütz sind Juristen der Kanzlei Taylor-Wessing.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*