Generative KI-Systeme

Künstliche Intelligenz (KI) galt lange Zeit als ein Mysterium, das man nur aus Filmen wie »iRobot« oder »Terminator« kannte. Mit ChatGPT, DALL-E und anderen Tools ist die KI nun auch im realen Alltag angekommen. [...]

Mag. Andreas Schütz und Mag. Julia Allen sind Juristen der Kanzlei Taylor-Wessing. (c) Taylor-Wessing
Mag. Andreas Schütz und Mag. Julia Allen sind Juristen der Kanzlei Taylor-Wessing. (c) Taylor-Wessing

KI-Tools, die mit einem unterschiedlichen Grad an Autonomie Inhalte wie Gedichte, Geschichten, Werbetexte, aber auch Bilder, Audio- und Videodateien generieren, fallen im Sinne des Vorschlags zur KI-Verordnung unter »Generative KI-Systeme« (GKS). Diese Werkzeuge helfen beim kreativen Schaffungsprozess und können ganze Aufsätze oder Bilder in einem bestimmten oder gar neuen Stil kreieren. Bereits vorhandener Content kann aber auch manipuliert werden und durch sogenannte Deepfakes neue Gefahren hervorrufen. Diese durch KI erzeugten oder veränderten Medieninhalte können nämlich nicht nur Reputationsverluste – von Personen öffentlichen Interesses oder Privatpersonen – zur Folge haben, sondern auch zu einer Gefährdung der Demokratie und der freien Meinungsbildung führen. Aus diesem Grund ist – wie auch bei Hochrisiko-KI-Systemen (HKS) – die Transparenz eine absolute Notwendigkeit.

Jede:r Nutzer:in muss bei der Anwendung oder einem von GKS generierten Inhalt rechtzeitig, klar und verständlich darüber informiert werden, dass mit einem KI-System und keinem Menschen interagiert wird. Es ist auch darauf hinzuweisen, dass Inhalte (wie Deepfakes) künstlich von KI erzeugt bzw. manipuliert wurden.

Neben ihrer Transparenzverpflichtung müssen GKS den Schutz vor Erzeugung unionsrechtswidriger Inhalte sicherstellen. Dies umfasst vor allem den Schutz von Immaterialgüterrechten wie Marken- oder Urheberrecht (Künstler, Autoren, etc.), aber auch das Recht auf freie Meinungsäußerung und Meinungsbildung. Für das Funktionieren von GKS wie ChatGPT oder DALL-E wird das KI-System mit einer Vielzahl an Daten gefüttert und trainiert. Diese für das GKS benötigten – und unter Umständen, urheberrechtlich geschützten – Trainingsdaten müssen vom Anbieter dokumentiert, zusammenzufasst und öffentlich einsehbar gemacht werden.

Die EU-Kommission und das Amt für KI haben dabei eine Überwachungs- und Bewertungsfunktion, da sich im Zusammenhang mit GKS auch Fragen hinsichtlich der Erzeugung von Inhalten stellen. Hier werden vor allem solche Inhalte überprüft, die gegen das Unionsrecht und die Urheberrechtsvorschriften verstoßen und den Missbrauch dieser Tools wie z.B. durch persönlichkeitsverletzende Deepfake-Videos offenlegen. Obwohl GKS im Gegensatz zu HKS im täglichen Gebrauch häufiger genutzt werden, sind die Regeln für Anwender überschaubar. Die Pflichten zur Transparenz und der Veröffentlichung der Trainingsdaten geben einen ersten Einblick in die Sicherheitsmaßnahmen der GKS. Ob diese den Missbrauch tatsächlich verhindern können, ist derzeit noch offen.

*Die Autoren Mag. Julia Allen und Mag. Andreas Schütz sind Juristen der Kanzlei Taylor-Wessing.


Mehr Artikel

Die Kombination aus interner Mobilität und Ressourcenbeschränkungen führt schnell zu einem Wildwuchs bei den vergebenen Privilegien. (c) Unsplash
Kommentar

6 Wege, wie Privilege Management die Sicherheitslage verbessert

Identitäten, Konten, Computer, Gruppen und andere Objekte benötigen gleichermaßen Zugang zu Ressourcen – limitiert auf die jeweilige Rolle und nur solange der Zugriff tatsächlich gebraucht wird. Dies ist ein grundlegender Bestandteil eines Zero Trust Least Privilege-Modelles und als solcher von AD-Administratoren, IT-Leitern, dem höheren Management und CISOs anerkannt. […]

David Blum, Defense & Security Lead bei Accenture, im Gespräch mit der ITWELT.at. (c) timeline / Rudi Handl
Interview

„Ein resilientes Unternehmen zeichnet sich durch größtmögliche Transparenz aus“

Transparenz, soweit im Sicherheitskontext möglich, ist für David Blum, Defense & Security Lead bei Accenture, ein wichtiger Bestandteil von Unternehmensresilienz. Das fördere die aus dem Verständnis folgende Unterstützung der Mitarbeitenden. Die unternehmerische Resilienz müsse nicht nur technisch, sondern auch kulturell verankert werden: „Denn Resilienz beginnt im Kopf jedes Einzelnen“, sagt Blum im Gespräch mit der ITWELT.at. […]

News

Klassifizierung von KI-Systemen gemäß EU AI Act

Unternehmen, die KI nutzen, sollten die rechtlichen Rahmenbedingungen kennen, um teure Bußgelder zu vermeiden. Der EU AI Act stellt den ersten umfassenden Rechtsrahmen zur Regulierung von KI dar und zielt darauf ab, die Grundrechte der Bürger innerhalb der Europäischen Union zu schützen. Da der EU AI Act KI-Systeme nach Risikostufen klassifiziert und damit spezifische rechtliche Verpflichtungen beinhaltet, ist es für Unternehmen unerlässlich, ihre Systeme korrekt zu kategorisieren. […]

Nicola Acutt, Chief Sustainability Officer (CSO) von NetApp. (c) Wolfgang Franz
News

Nachhaltigkeit heißt Teamarbeit

Nicola Acutt ist der erste Chief Sustainability Officer (CSO) von NetApp. Im Gespräch mit transform! berichtet sie über die Herausforderungen und Chancen ihrer Rolle – und was ihre Leidenschaft fürs Segeln mit nachhaltiger Unternehmensführung gemeinsam hat. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*