Qualitätssiegel für künstliche Intelligenz

Der TÜV Austria hat mit Partnern laut eigenen Angaben das erste Qualitätssiegel für künstliche Intelligenz (KI) geschaffen. [...]

Stefan Haas ist CEO von TÜV AUSTRIA. (c) TÜV AUSTRIA
Stefan Haas ist CEO von TÜV AUSTRIA. (c) TÜV AUSTRIA

Das neue Joint Venture TRUSTIFAI soll der Überprüfung und Zertifizierung von KI-Anwendungen dienen. Durch ein unabhängiges Qualitätssiegel nach „höchsten Standards“ soll demnach Vertrauen in die sichere und zuverlässige Anwendung von KI geschaffen werden, was wiederum das Wachstum des KI-Marktes weiter vorantreiben soll. Die CEOs von TÜV AUSTRIA und dem Software Competence Center Hagenberg (SCHH), Stefan Haas und Markus Manz, betonten bei der Vorstellung von TRUSTIFAI, dass Österreichs erster KI Test- und Qualifizierungshub eine „führende Position im Bereich der KI-Prüfung und -Zertifizierung in Europa einnehmen wird“. Dabei setzt TRUSTIFAI auf wissenschaftlich fundierte Prüfmethoden und Transparenz, um das Vertrauen in die Technologie zu stärken und eine »Win-Win-Situation« für Unternehmen und die Gesellschaft zu schaffen.

ML-Grundlagenforschung

Seit 2020 arbeiten TÜV AUSTRIA, das Machine Learning-Institut der JKU und das SCCH gemeinsam an der Umsetzung des wissenschaftlichen Knowhows der ML-Grundlagenforschung in Methoden zur Qualitätsprüfung und Zertifizierung. »Die Methodik beinhaltet eine valide statistische Prüfung der verwendeten ML-Modelle, die nun durch TRUSTIFAI der KI-Community in Österreich und Europa zugänglich gemacht wird«, so Bernhard Nessler, Research Manager Deep Learning and Certification am SCCH.

Ziel ist, TRUSTIFAI als führenden AI Test und Qualifizierungshub mit globaler Reichweite und internationalem Wachstum zu etablieren. TRUSTIFAI verfüge bereits über alle erforderlichen Fähigkeiten und Prüfkompetenzen, um eine österreichische KI-Behörde im Aufbau zu unterstützen.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*