Mit ihrem Vorstoß für eine strengere Regulierung des KI-Einsatzes in Europa will die EU-Kommission für mehr Vertrauen sorgen. [...]
„Bei künstlicher Intelligenz ist Vertrauen ein Muss und kein Beiwerk“, stellten Margrethe Vestager, Vizepräsidentin der EU-Kommission, sowie der für den EU-Binnenmarkt zuständige Kommissar Thierry Breton anlässlich der Vorstellung des geplanten KI-Regelwerks fest. Nach Einschätzung der EU-Politiker werde der KI-Einsatz in den kommenden Jahren massiv zunehmen. Damit seien jedoch auch Risiken und ethische Bedenken verbunden, hieß es in Brüssel. Es gelte daher, mit klaren Regeln Vertrauen zu schaffen. „Unser Vorschlag beschäftigt sich deshalb nicht mit der KI selbst, sondern mit ihren Anwendungen,“ sagte Vestager.
Die EU-Kommission will KI-Anwendungen in vier verschiedene Risikoklassen einsortieren und entsprechend reglementieren. „Je höher das Risiko einer spezifischen Nutzungsart der KI, desto strenger die Regeln“, sagte Vestager. Als vergleichsweise unproblematisch wollen die europäischen Regelwächter beispielsweise Techniken wie intelligente Spam-Filter und Chatbots einstufen. Nutzer müssten grundsätzlich nur darüber informiert werden, dass sie nicht mit einem Menschen kommunizierten. Als Risiko-Anwendungen seien dagegen KI-Werkzeuge einzustufen, die Menschen bewerteten, beispielsweise im Zuge von Einstellungen oder der Bewertung ihrer Kreditwürdigkeit. Hier seien besonders hohe Anforderungen an die Datengrundlage zu stellen, damit Menschen nicht ohne objektiven Grund aussortiert würden. Außerdem müssten Entscheidungen, die eine KI an dieser Stelle trifft, nachvollziehbar und transparent sein, und es bedürfe einer menschlichen Aufsicht.
Auch im Umfeld von kritischen Infrastrukturen wie dem Verkehr und an Stellen, wo es beispielsweise darum geht, Menschen automatisiert anhand biometrischer Merkmale zu identifizieren, sollen strenge Maßstäbe an den KI-Einsatz angelegt werden. Der Einsatz derartiger Techniken soll nur nach behördlicher Genehmigung erlaubt werden, zum Beispiel um vermisste Personen zu finden oder Terrorakte zu verhindern. Beim Einsatz von Hochrisiko-KI müssten Anbieter den regelkonformen Einsatz garantieren, fordert die EU-Kommission. Entwicklung und Nutzung müssten genau dokumentiert werden. Massenüberwachung und Manipulation der Bevölkerung sowie jede Art des Social Scoring sollten verboten werden.
KI-Regelwerk – Kritik von vielen Seiten
Der Vorschlag zur KI-Regulierung musste viel Kritik einstecken. Der Entwurf sei zwar ein Schritt in die richtige Richtung, „er bedarf aber einer weiteren ausdifferenzierteren Betrachtung“, sagte Wolfgang Weber, Vorsitzender der Geschäftsführung des Zentralverbands Elektrotechnik- und Elektronikindustrie (ZVEI). KI-Software, KI-Sicherheitskomponenten und andere Produkte mit sicherheitsrelevanter KI würden nahezu unterschiedslos als Hochrisiko-Anwendungsbereiche betrachtet, die hohe Anforderungen zu erfüllen haben.
„Diese Überbewertung von möglichen Risiken hemmt Innovationen und trifft insbesondere unsere mittelständischen Unternehmen.“ Statt Klarheit zu schaffen, verliere sich der Regulierungsentwurf beim Versuch, KI zu definieren, in weitgefasster Beliebigkeit, kritisierte Weber. „Schon konventionelle Algorithmen oder statistische Methoden geraten bei der EU-Kommission in den Verdacht, eine risikobehaftete KI zu sein. Dies erhöht die Rechtsunsicherheit für Hersteller und Anwender weiter und ist schädlich im globalen Wettbewerb.“
Auch für Iris Plöger vom Bundesverband der Deutschen Industrie ist der Begriff der Hochrisiko-KI-Systeme zu weit gefasst. „Industrielle Einsatzfelder von KI müssen vom Anwendungsbereich der Verordnung ausgenommen werden“, forderte sie. Sonst werde die Entwicklung innovativer KI-Anwendungen schon im Ansatz geschwächt. Claus Oetter vom Verband Deutscher Maschinen- und Anlagenbau (VDMA) befürchtet, dass sich vor allem kleine und mittlere Unternehmen künftig häufiger fragen werden, ob sie nicht lieber auf KI in ihren Programmcodes verzichten, weil der Verwaltungsaufwand zu groß wird. Oetter warnt, dass durch die Regulierung Innovationen ausgebremst werden könnten.
Anderen gehen die Vorschläge nicht weit genug. Die FDP-Politikerin und Vizepräsidentin des EU-Parlaments Nicola Beer kritisiert, dass im Entwurf der EU-Kommission die KI-basierte Gesichtserkennung im öffentlichen Raum nicht grundsätzlich verboten wird. Patrick Breyer, Europaabgeordneter der Piratenpartei, warnt: „Biometrische und massenhafte Überwachung, Profiling und Technologie zur Verhaltenserkennung im öffentlichen Raum untergraben unsere Freiheiten und bedrohen unsere offenen Gesellschaften.“ Die Europäische Union müsse die technischen Möglichkeiten von KI mit ihren ethischen Anforderungen und demokratischen Werten in Einklang bringen. KI-Instrumente, die sich zur Massenüberwachung eigneten, gehörten vollständig verboten.
Angesichts der Kritik von allen Seiten dürfte noch viel Arbeit auf die EU-Kommission zukommen. Bis das EU-Parlament und die einzelnen Mitgliedsstaaten beraten und zugestimmt haben, werden Jahre vergehen. Es steht zu befürchten, dass es ähnlich lange dauern wird wie bei der EU-Datenschutzgrundverordnung. Hier hatte die EU-Kommission Anfang 2012 das erste Konzept vorgestellt. In Kraft trat die EU-DSGVO am 25. Mai 2018.
*Martin Bayer: Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP; Betreuung von News und Titel-Strecken in der Print-Ausgabe der COMPUTERWOCHE.
Be the first to comment