AI Act der Europäischen Union: Regelungslücken rasch schließen

TÜV AUSTRIA präsentiert Anforderungen und Lösungsvorschläge für die Bewertung von KI-Systemen und empfiehlt eine entsprechende Präzisierung für den EU AI Act. [...]

Foto: SteveBuissinne/Pixabay

Nach jahrelangen Verhandlungen wurde kürzlich Europas neues KI-Gesetz, der EU AI Act, vom Europäischen Parlament verabschiedet. Der finale Text dazu wird erst 2024 vorliegen, ab 2026 soll das neue Gesetz vollumfänglich angewendet werden.

Thomas Doms, Geschäftsführer von TRUSTIFAI und Software Competence Center Hagenberg für KI-Anwendungen, anerkennt, dass der EU AI Act ein wichtiger Schritt ist, die Risiken von KI-Anwendungen zu regeln – immer unter der Berücksichtigung der Interessenpositionen seitens der EU-Kommission und der 27 Mitgliedsstaaten. Das KI-Gesetz greife zudem auch mehr auf als entsprechende Regelungen in den USA und China.

Zufrieden ist er mit dem ausgehandelten Gesetz dennoch nicht.

„Aus der Sicht einer Prüforganisation, die bereits im Jahr 2020 mit TRUSTED AI den weltweit ersten Testkatalog für KI-Anwendungen herausgebracht hat und über umfangreiche Expertise bei der Prüfung von Machine-Learning-Modellen verfügt, werden die bekannten funktionalen Risiken, die sich aus dem Einsatz von KI ergeben können, nicht klar genug adressiert.“

Funktionale Anforderungen im EU AI Act nicht ausreichend berücksichtigt

So seien die Grundlagen für zukünftige Konformitätsbewertungen in Hinblick auf die funktionalen Anforderungen an diese Systeme – wie Robustheit, Transparenz und Zuverlässigkeit, in den Normungsgremien und im EU KI-Gesetz nicht ausreichend berücksichtigt, betont Doms. Es fehlten auch konkrete Vorgaben für einheitliche Risikobewertungsverfahren und mögliche Opt-Out-Verfahren für Stand-Alone-Systeme. Das berge die Gefahr einer Ungleichbehandlung von gleichartigen Produkten.

Doms fordert, dass sogenannte Low-Profile-Zertifizierungen oder rein papier- und dokumentenbasierte Überprüfungen von riskanten KI-Anwendungen vermieden werden müssen.

„Unsere Erfahrungen aus bereits durchgeführten Zertifizierungsprojekten zeigen, dass die häufig geäußerte Befürchtung mancher Stakeholder, dass Prüfverfahren mit ausreichender Prüftiefe zu einer Überregulierung führen würden, ein Scheinargument ist. Denn selbst Prüfungen für komplexe Modelle und Anwendungen haben unter Berücksichtigung der Anforderungen an die funktionale Sicherheit einen wirtschaftlich vertretbaren Umfang niemals überschritten.“

Stichproben anstelle papier- und dokumentenbasierten Überprüfungen

Thomas Doms: „Die Komplexität, wie wir sie beispielsweise von tiefen neuronalen Netzen kennen, erschwert es auch, Fehlfunktionen oder Manipulationen von außen zu erkennen und zu beheben.

Um einen sicheren, robusten und transparenten Einsatz von KI, insbesondere in sicherheitskritischen Anwendungen, zu gewährleisten, sind hinreichende funktionale Anforderungen zu spezifizieren sowie angemessene Konzepte, Methoden und Werkzeuge für entsprechende Tests erforderlich.“

Die Qualität eines vertrauenswürdigen KI-Entscheidungssystems lässt sich vor allem durch die korrekte statistische Prüfung an Stichproben und in der Präzision der Definition des Anwendungsfeldes, die die Ziehung von repräsentativen Stichproben überhaupt erst möglich macht, feststellen. Thomas Doms: „Wir fordern daher, dass eine zuverlässige Bewertung der statistischen Funktionseigenschaften eines KI-Systems nach dem bekannten wissenschaftlichen Stand der Technik den unverzichtbaren und verbindlichen Kern einer Konformitätsbewertung bilden muss.“

Dazu notwendig sind:

  • eine genaue Definition des Verwendungszwecks, formalisiert als technische Verteilung, die eine Zufallsauswahl ermöglicht
  • die Erhebung von risikobasierten Mindestleistungsanforderungen und
  • statistisch valide Tests auf der Basis unabhängiger Stichproben.

„Die TÜV AUSTRIA TRUSTED AI Testmethode kann sowohl auf überwachte als auch auf unüberwachte Lernanwendungen angewendet werden. Wir sind gerne bereit unsere Kriterien, Erfahrungen und Bewertungsergebnisse mit der EU-Kommission und ihren Standardisierungsgremien zu teilen. Damit bestehende Regelungslücken im EU-Gesetz rasch geschlossen werden können“, so Doms abschließend.

Podcast mit Thomas Doms (Geschäftsführer TRUSTIFAI) und Bernhard Nessler (Research Manager Deep Learning & Certification, SCCH) zum EU AI Act


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*