Künstliche Intelligenz auf dem Prüfstand

Die Johannes Kepler Universität und TÜV AUSTRIA entwickeln ein Zertifikat für künstliche Intelligenz. [...]

Der Einsatz von KI wirft zahlreiche Fragen auf. (c) Unsplash
Der Einsatz von KI wirft zahlreiche Fragen auf. (c) Unsplash

TÜV AUSTRIA arbeitet gemeinsam mit dem Institut für Machine Learning der Johannes Kepler Universität (JKU) an Zertifizierungsmethoden, um Hersteller bei der Entwicklung sicherer, verlässlicher und qualitativ hochwertiger Machine-Learning-Modelle zu unterstützen und Nutzern ein Qualitätssiegel für vertrauenswürdige KI-Systeme zu bieten. Die erste Erfolgsstufe wurde eigenen Angaben zufolge erreicht: Sogenannte Supervised-Learning-Anwendungen im niedrigen bis mittelhohen Risikobereich werden heute schon zertifiziert. „Wir führen bereits erste Zertifizierungsprojekte durch, wobei sich die Anwendungen vor allem im industriellen Umfeld aber auch im Consumer-Bereich wiederfinden. In den nächsten Phasen der Entwicklungskooperation werden die jetzigen Ansätze erweitert, um auch sicherheitskritischere Anwendungen basierend auf einem breiteren Spektrum von Machine-Learning-Methoden zertifizieren zu können“, sagt Stefan Haas, CEO der TÜV AUSTRIA Group und ergänzt: „Besonders freut es uns, für dieses herausfordernde Unterfangen das Machine Learning Institut der JKU als kompetenten und international anerkannten Partner an unserer Seite zu wissen.“

Im Rahmen der Zertifizierung werden die Machine-Learning-Modelle und deren Entwicklungsprozess in mehreren Dimensionen im Detail überprüft. Dabei wird nicht nur die eigentliche Funktion und Verlässlichkeit der trainierten Modelle untersucht, sondern auch die Sicherheit der Software und ob diese den Anforderungen ihres Einsatzgebiets entsprechend angemessen entwickelt wurde. Hinzu kommt eine Prüfung, ob mit persönlichen Daten vertraulich umgegangen wird und mögliche ethische Fragestellungen ausreichend berücksichtigt werden.


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*