Neben dem in unserem letzten Beitrag behandelten urheberrechtlichen Schutz von künstlerischen Werken, die mit KI-Tools wie ChatGPT erstellt wurden, ist auch interessant, wie diese KI-Tools ihre Fähigkeiten überhaupt erlangen. [...]
Um KI-Tools zu „trainieren“, müssen diese aus Unmengen an bestehenden Inhalten (Text, Bilder etc.) Regeln ermitteln, die sodann angewendet werden, um das Erstellen von eigenen Schöpfungen zu ermöglichen. Da diese Methode große Mengen an Daten benötigt, wird für dieses „Training“ meist auch auf urheberrechtlich geschützte Werke zurückgegriffen.
Es ist nicht überraschend, dass dies zu Interessenskonflikten zwischen den Urhebern der für das „Training“ genutzten Werke und den Entwicklern dieser KI-Systeme führt. Getty Images hat etwa den Entwickler Stability AI für die Verwendung ihrer urheberrechtlich geschützten Bilder geklagt, während eine Gruppe von US-Autoren den Entwickler OpenAI klagte, da ChatGPT ihre urheberrechtlich geschützten Bücher zum „Lernen“ nutzte.
Anders als bei der Betrachtung durch einen Menschen müssen Texte und Bilder für das „Lesen“ durch das KI-System kopiert werden, was eine Vervielfältigung nach § 15 des Urheberrechtsgesetzes darstellt. In Österreich darf eine solche Vervielfältigung grundsätzlich nur mit Zustimmung des Urhebers erfolgen, jedoch wurde basierend auf der „Digital Single Market-Richtlinie“ ein Ausnahmetatbestand für sogenanntes „Text- und Data-Mining“ (TDM) geschaffen. Demnach darf die Vervielfältigung zum Zweck des TDM erfolgen, wenn diese vom Urheber nicht durch einen Nutzungsvorbehalt ausdrücklich verboten wurde („Opt-Out“). In den USA etwa ist die Vervielfältigung als „fair use“ zu prüfen, wobei hierfür unter anderem der Zweck und der Charakter der Nutzung maßgeblich ist.
Ob die Ausnahmen des TDM und „fair use“ im Lichte der modernen KI-Tools und deren umfangreichen „Training“ anzuwenden sind, wird zunehmend diskutiert. So fordern österreichische Autoren eine gesetzliche Vergütung als Ausgleich für die Nutzung ihrer Werke durch KI-Modelle und damit eine Abkehr von der Opt-Out-Lösung. Andererseits reagieren Entwickler und nutzen vermehrt ausschließlich lizensierte oder ungeschützte Werke für das „Training“ ihrer KI-Tools, so z.B. Adobe Firefly oder die Organisation Fairly Trained, die solche KI-Tools zertifiziert.
Im Verfahren der US-Autoren vor dem kalifornischen District Court feierte OpenAI jedenfalls kürzlich einen Teilerfolg, zumal das Gericht vier der sechs Ansprüche der US-Autoren, darunter eine indirekte Urheberrechtsverletzung, vorläufig abwies. Ob US-Gerichte das „Training“ als direkte Urheberrechtsverletzung qualifizieren und ob diese Entwicklungen in der europäischen KI-Regulierung berücksichtigt werden, bleibt jedoch abzuwarten.
*Mag. Andreas Schütz und Alexander Schmiedlechner sind Juristen der Kanzlei Taylor-Wessing.
Be the first to comment