Europa will bei der Anwendung von KI globale Standards setzen. Dazu schlug die EU-Kommission nun Regeln vor, die das Vertrauen in die Technologie stärken sollen. Je höher die potenziellen Gefahren einer Anwendung, desto höher sind die Anforderungen. [...]
Bei künstlicher Intelligenz ist Vertrauen ein Muss und kein Beiwerk«, sagte Margrethe Vestager, Vizepräsidentin der EU-Kommission, anlässlich der Vorstellung des geplanten KI-Regelwerks. Nach Einschätzung der EU-Politikerin werde der KI-Einsatz in den kommenden Jahren massiv zunehmen. Damit seien jedoch auch Risiken und ethische Bedenken verbunden, es gelte daher, mit klaren Regeln Vertrauen zu schaffen, so Vestager.
Ähnlich wie bei den Datenschutzregeln, die seit 2018 in der EU gelten und weltweit Nachahmer fanden, will die EU-Kommission auch beim Umgang mit künstlicher Intelligenz globale Standards setzen. Die EU-Kommission will KI-Anwendungen in vier verschiedene Risikoklassen einsortieren und entsprechend reglementieren. »Je höher das Risiko einer spezifischen Nutzungsart der KI, desto strenger die Regeln«, sagte Vestager. Konkret legte die EU-Kommission Regeln für sogenannte Hochrisiko-Anwendungen vor. Dazu zählt die Behörde unter anderem kritische Infrastruktur wie den Verkehrssektor, Programme zur Personaleinstellung oder die Bewertung der Kreditwürdigkeit.
Der Vorschlag musste jedoch auch Kritik einstecken. »Der Entwurf ist ein Schritt in die richtige Richtung, er bedarf aber einer ausdifferenzierteren Betrachtung«, sagt Wolfgang Weber, Vorsitzender der Geschäftsführung des Zentralverbands Elektrotechnik- und Elektronikindustrie in Deutschland. KI-Software, KI-Sicherheitskomponenten und andere Produkte mit sicherheitsrelevanter KI würden nahezu unterschiedslos als Hochrisiko-Anwendungsbereiche betrachtet, die hohe Anforderungen zu erfüllen haben.
Be the first to comment