„Der EU AI Act macht mir große Sorgen“

Der EU AI Act soll den sinnvollen Einsatz von KI fördern und ist darauf ausgelegt, Innovationen im Bereich der vertrauenswürdigen KI zu unterstützen. ITWELT.at hat dazu Viacheslav Gromov, Geschäftsführer des KI-Anbieters AITAD, ein paar Fragen gestellt. [...]

Viacheslav Gromov, Geschäftsführer vom KI-Anbieter AITAD. (C) AITAD
Viacheslav Gromov, Geschäftsführer vom KI-Anbieter AITAD. (C) AITAD

Welche Hauptbedenken haben Sie bezüglich des kürzlich fertiggestellten EU AI Act und wie könnten diese sich auf die KI-Branche auswirken?

Es bleibt weiterhin unklar, was unter der detailreichen Datenbankentransparenz zu verstehen ist, also inwiefern und mit welchem bürokratischen Dokumentationsaufwand man diese adäquat erfüllt. Das Nächste ist die Unterscheidung von Basismodellen (Foundation Models, auf denen auch beispielsweise ChatGPT und DALL-E basiert), deren Einstufung als (Hoch-)Risikosystem in zwei Stufen unterteilt wird. Dies wird maßgeblich nach der Grenze von Rechenoperationen getan, was bekannterweise keinerlei Auskunft über das Risiko der Anwendung durch verschiedenste Modellstrukturen gibt. Der Gedanke der Entlastung von KMUs ist zwar richtig, in der technischen Umsetzung aber misslungen. Nicht zuletzt haben wir noch alte Themen in dem Einigungs-Papier drin, wie der Nachweis beziehungsweise die Eliminierung von Bias (z.B. Vorurteilen nach demokratischen Prinzipien/Werten), was seitens Technologie enorm schwierig bis unmöglich ist und die Testing- und Dokumentationspflichten ins Unermessliche abstrakt heben könnte.

Könnten Sie genauer darauf eingehen, warum das Urheberrechts-Thema die Diskussion über die Kritikalitätseinstufung von Basismodellen in den Schatten stellt und wie das Ihrer Meinung nach angegangen werden sollte?

Die Sorgen der Urheber kann ich gänzlich unterstützen und finde die Diskussion auch wichtig. Man hatte aber das Gefühl, dass das Thema das zuvor genannte Risikostufen-Thema überschattet hat, was bei der Einigung zum Nachteil beider Interessen führte. Aus meiner Sicht hätte man gerade bei den Basismodellen noch abwarten müssen, weil wir stand heute keinerlei stichhaltige Zukunftsprognosen abgeben können, und uns mehr Zeit lassen, um kluge und praxisnahe Regeln und Definitionen zu finden. Denn das globale Rennen ist nicht entschieden, wir haben in Europa relevante Player wie Aleph Alpha, denen wir enorme Wachstumschancen geben sollten, wenn wir unsere Werteschemas als Wirtschaft und Gesellschaft langfristig profitabel und zu unserem Wohle durchsetzen können.

Welche möglichen Auswirkungen sehen Sie durch die umfangreiche Bürokratie, die durch die Anforderungen des EU AI Act hinsichtlich Dokumentation, technischer Nachweise und Datenbank-Transparenz entstehen könnte?

Die Auswirkungen sind ganz klar: Es verzögert Innovationen, beschädigt die Return-on-Investment-Rechnung und ist damit ein Standortnachteil. Die größte Gefahr ist zudem die Unsicherheit der Rechtsetzung, also der Deutungen und der ohnehin schwierigen Definitionsräumen. Zudem ist diese Art mit Kriterien und Definition nicht auf die Schnelllebigkeit und Techologieweiterentwicklung ausgelegt, sprich wir werden uns bei jeder Technologieweiterentwicklung größeren Zulassungshürden und Rechtsunsicherheiten stellen – denken Sie beispielsweise ans neuromorphe Computing, was schneller kommt, als sie glauben und die KI-Effizienz und dadurch -Power enorm vervielfacht. Der Vorschlag der Länder Deutschland, Frankreich und Italien auf Initiative der französischen Regierung zunächst zur Selbstregulierung und Unterscheidung zwischen Technologie und Anwendung fand ich deshalb klug, aber zu spät, wodurch es sich nicht durchsetzen konnte.

Wie beurteilen Sie die Chance, dass einige Unternehmen aufgrund dieser regulatorischen Entwicklungen abwandern könnten, und welche Auswirkungen hätte das auf die KI-Branche?

Standortnachteile führen natürlich auch zur Abwanderung der Unternehmen ins Ausland, zumindest aber mit Markteinführungen außerhalb des überregulierten Gebietes. Das bedeutet, das Unternehmen auch in Plan B denken müssen und Kosten-Nutzen-Rechnung noch mehr in den Vordergrund rückt. Das haben wir ja bereits auch bei Worldcoin von u.a. Sam Altman gesehen, welches ausgerechnet nicht in den USA eingeführt wurde. Im Übrigen muss uns auch die zweite Konsequenz der Abwanderung oder der Barrierenschaffung bewusst sein: Je mehr wir eine solche Schlüsseltechnologie in fremde geopolitische Hände geben, desto mehr werden wir zukünftig abhängig sein und letztendlich unsere Werte denen der anderen zwangsläufig anpassen müssen. Wollen wir das?

Was sind Ihrer Meinung nach die Vor- und Nachteile der unterschiedlichen Ansätze der USA und der EU in Bezug auf die Regulierung von KI?

In USA und den Rest der Welt handelt es sich um eine deutlich lockereres respektive direkt unreguliertes Technologiegebiet. Es gibt höchstens Dikrete oder lokale Regulierung, wie beispielsweise in San Francisco bzw. Los Angeles mit dem autonomen Fahren, weshalb die Behörden auch hohe Unfallzahlen hinnehmen müssen. Das schafft dennoch mehr Freiheiten für Technologiebeherrschung und Zukunftsfähigkeit, statt auf Verdacht einer Branche Lasten aufzuerlegen, deren Outcome man durch schnelle Technologiezyklen überhaupt nicht in die Zukunft projizieren kann.

Könnten Sie die potenzielle Bedeutung der KI-Haftungsfrage und der vorgeschlagenen Maßnahmen wie Haftungsklärung, Haftungsbeschränkung und Sand Boxes für die KI-Branche näher erläutern, insbesondere im globalen Kontext?

Jetzt haben wir die Chance, noch auf nationaler Ebene das Thema der Haftung als Standortvorteil auszulegen. Das fordern die Wirtschaft und die KI-Branche schon lange. Es geht darum, wer – also Nutzer, Entwickler, Hersteller oder Inverkehrbringer – wofür haftet und auch gegebenenfalls Haftung übertragen könnte. Wenn wir dies klären könnten und eine adäquate Haftungsbeschränkung wie auch bei anderen Themen einführen, würde das für Klarheit und Investitionssicherheit sorgen. Es sollte aber auch für einen begrenzten Rahmen – auch Sandkasten oder Sandbox genannt – mehr Freiheiten zum Innovieren geben, da noch unklar ist, was zukünftig die Technologieanforderungen sein werden, denn der KI-Technologiezyklus liegt gerade mal bei 6 Monaten.

Das Unternehmen AITAD wurde 2018 gegründet und hat seine Kernkompetenzen in den Bereichen Embedded Systems und KI. 


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*