KI-Regularien in der EU und den USA: Exzellenz durch Transparenz

In den USA und auf EU-Ebene werden momentan Gesetzesentwürfe zur Regulierung von künstlicher Intelligenz (KI) diskutiert. Unabhängig voneinander sollen diese Entwürfe Leitlinien für die Nutzung und den Einsatz von KI-Systemen etablieren und Grundsätze in den Bereichen Sicherheit, Transparenz und Datenschutz festlegen. [...]

Foto: GerdAltmann/Pixabay

Doch sind solche Regularien eine überfällige Kontrollinstanz oder eine Bremse für die Innovationskraft in den USA und der EU? Martin Weis, Managing Partner und Country Head Switzerland bei Infosys Consulting, legt dar, warum solche Initiativen sinnvoll sind und dem technologischen Zeitgeist entsprechen.

Sicher, transparent, ethisch, unparteiisch und unter menschlicher Kontrolle – so stellt sich die Europäische Kommission die KI-Systeme der Zukunft vor.

Vertrauenswürdig soll diese Technologie sein, die in so viele unserer Lebensbereiche Einzug gehalten hat. Mit ihrem im April 2021 vorgestellten Artifical Intelligence Act möchte die EU-Kommission einen Rechtsrahmen für KI-Anwendungen schaffen, der solche Technologien erklärbarer macht und ihr Diskriminierungspotenzial verringert.

Ausgehend von ihrem Gefahrenpotential für die Sicherheit und die Grundrechte der Bürger:innen sollen KI-Systeme künftig in Risikogruppen eingeteilt werden – mit unterschiedlich hohen Auflagen an Transparenz und Zertifizierung.

Die aktuelle U.S.-Regierung schlägt nun einen ähnlichen Regulierungsweg ein: Die im Oktober veröffentlichte „AI Bill of Rights“ – rechtlich nicht bindend – soll als Orientierungshilfe dienen, wenn automatisierte Systeme die Rechte, die Gestaltungsmöglichkeiten oder den Zugang der Öffentlichkeit zu lebenswichtigen Gütern erheblich beeinträchtigen können.

Beide Gesetzesentwürfe sind in ihren jeweiligen Märkten nicht unumstritten. Auch manche deutschen Unternehmen könnten sich aus ökonomischer Sicht der Illusion hingeben, dass Regelfreiheit im KI-Bereich mit einem Wettbewerbsvorteil gleichzusetzen ist. Doch das ist eine zu kurzfristige Betrachtung.

Sowohl das EU- als auch das US-Regelwerk legen ein besonderes Augenmerk auf KI-Modelle, die das Leib, Leben und die Grundfreiheiten von Menschen beeinflussen: Gesundheitsversorgung, Personalmanagement, Kreditvergabe oder öffentliche Dienstleistungen zum Beispiel.

Maschinelle Fehlentscheidungen, auch aufgrund von voreingenommener KI, können hier fatale Folgen haben. Der Notwendigkeit für Transparenz ist in diesen hochsensiblen Feldern richtigerweise ein höheres Gewicht beizumessen, was auch im Modell des EU-Entwurfs berücksichtigt wird.

Doch auch Privatunternehmen, die KI für den Einsatz von Chatbots oder zum Vorschlagen von Einkaufsoptionen nutzen, sollten Themen wie Transparenz und Erklärbarkeit nicht unbeachtet lassen.

Solche KI-Modelle richten sich an Endkund:innen, deren Ansprüche an und Konsum von Technologie sich in den letzten Jahren verändert haben. Diesen Trend müssen Unternehmen mitgehen. 

Transparenz ebnet den Weg für eine größere Akzeptanz

Besonders die Generation der Digital Natives kennt keine Welt ohne digitale Technologien. Die User:innen werden immer technikaffiner und informierter, wenn auch noch Wissenslücken bestehen. So belegt eine aktuelle Studie der Bertelsmann Stiftung, dass sich die Deutschen in den vergangenen Jahren ein grundlegendes Verständnis für Anwendungsgebiete von KI angeeignet haben.

Dennoch bestehe eine “Wissenskluft”, das heißt, viele haben kein grundlegendes Verständnis von KI und deren möglichen Auswirkungen auf ihr Leben. Hier gilt es noch, wichtige Aufklärungsarbeit zu leisten.

Interessanterweise zeigt sich in dieser Studie auch, dass die Akzeptanz für automatisierte Softwareentscheidungen vom Kenntnisstand der Befragten abhängig ist. Je mehr Informationen die Befragten über bestimmte Einsatzbereiche haben, desto häufiger sind sie gewillt, KI-Entscheidungen in diesen Feldern zu akzeptieren – sogar bei umstrittenen, risikoreichen Anwendungsformen.

Das gilt sogar für Anwendungen, die aufgrund ihrer potenziell gravierenden sozialen Folgen umstritten sind, wie die Vorauswahl bei Jobbewerber:innen oder die Gesichtserkennung durch Videoüberwachung. 

Folglich schafft die öffentliche Debatte zu dem Thema nicht nur Transparenz, sondern informiert auch breite Bevölkerungsteile über Berührungspunkte mit KI im Alltag. Gerade der gesellschaftliche Diskurs über die Anwendungsbereiche von KI – auch deren potenziell riskantere Fälle – trägt zum technologischen Fortschritt bei.

Wird die Technologie dem forschenden Blick der breiten Bevölkerung preisgegeben, können übersehene blinde Flecken und Benachteiligungen durch diese Technologie sowie rechtliche Implikationen offengelegt werden. Entwickler:innen können diese Erkenntnisse wiederum in die stetige Verbesserung der Anwendung einfließen lassen.

Voraussetzung für einen solchen fruchtbaren Austausch ist ein Grundverständnis für das Thema in der Öffentlichkeit. Eine solche weitreichende Technologie wie KI kann sich langfristig nur etablieren, wenn deren Entwicklung und Fortschritte von möglichst vielen Menschen mitgetragen werden und Unternehmen das Vertrauen ihrer Kund:innen genießen. 

Unternehmen an Bord

Auch auf Unternehmensseite ist mehr Transparenz und Sicherheit im Umgang mit KI-Technologie von großer Bedeutung. Nicht alle Entscheidungsträger sind hier Regularien abgeneigt. Einer aktuellen Studie von adesso zufolge sind 54 Prozent der deutschen KI-Expert:innen in Unternehmen der Meinung, dass das Anwenden von KI-Technologien stärker reguliert werden sollte.

Besonders hoch ist diese Forderung im Banken- und Finanzdienstleisterumfeld (75 Prozent). Zudem befürworten 70 Prozent aller Befragten, ein internes KI-Ethikgremium zu etablieren. Diese Unterstützung für Regularien erscheint verständlich: Sie bringen Licht ins Dunkel für Unternehmen, die in der Debatte um voreingenommene KI („Bias in AI“) und datenschutzrechtliche Bedenken den richtigen Weg einschlagen wollen und den Unmut ihrer Kund:innen vermeiden wollen.

Erste Unternehmen nehmen sich diese Entwicklung bereits zu Herzen. So legt die Schufa Holding AG in diesem Jahr in ihrem Simulator erstmals die wichtigsten Faktoren offen, die die Kreditwürdigkeit eines Antragstellers oder einer Antragstellerin beeinflussen kann.

Das Wiesbadener Unternehmen beweist, dass etablierte Institutionen erkennen, wie wichtig Einblicke in die eigenen Entscheidungsmechanismen sind.

Wie soll es weitergehen?

Fest steht: Wild-West-Manieren im Umgang mit KI generieren mehr Schaden als Nutzen. Aus diesem Grund ist das Vorgehen der EU, Vorschriften zum richtigen Umgang mit Künstlicher Intelligenz aufzustellen, der richtige Weg, um die KI-Regulierung demokratisch zu verankern.

Es bleibt abzuwarten, ob sich das amerikanische Pendant, die AI Bill of Rights, der europäischen Informationsmaxime annähert und im nächsten Schritt neben der öffentlichen Hand auch Privatunternehmen in die Verantwortung nimmt.

Ein weiterer Schritt in die richtige Richtung ist die von der EU-Kommission vorgeschlagene Richtlinie für KI-Haftung, laut der Opfern, die durch KI-Technologie zu Schaden kamen, eine Entschädigung zustehen soll.

Es ist klar, dass manche KI-Modelle einen hohen Grad an Komplexität aufweisen und ein Bestehen auf absoluter Transparenz deren Funktionalität verringern würde. Komplexe KI-Modelle erklärbar zu machen ist nicht einfach und benötigt neue, fortschrittliche Tools, wie beispielsweise vom Frauenhofer Institut entwickelt. Externe Beratungs- und IT-Unternehmen können bei solchen Prozessen unterstützend zur Seite stehen.

Doch auch Unternehmen können Teil dieser Entwicklung sein. Wer sich proaktiv mit KI-Transparenz und -Erklärbarkeit beschäftigt, kann aktiv am öffentlichen Diskurs mitwirken und zeitgleich an unternehmensinternen Prozessen zum verantwortungsbewussten Umgang mit KI arbeiten.

Richtlinien wie der Artificial Intelligence Act der EU oder die US-amerikanische AI Bill of Rights sind dafür wichtige Grundlagen und Richtungsweiser. Allerdings sind gesetzliche Regelwerke allein nicht die Lösung dafür, erklärbare und unvoreingenommene KI zu etablieren.

Stattdessen sollten Unternehmen bereits heute daran denken, bei der Neuentwicklung und beim Anlernen von KI diversifizierte Teams hinsichtlich Geschlechts, ethnischer oder sozialer Herkunft einzusetzen. So können sie die Nutzung der eigenen Anwendungen dem technologischen Zeitgeist anpassen.

*Martin Weis: Managing Partner /Country Head Switzerland. Das Unternehmen Infosys Consulting Holding AG mit Sitz in Kloten, im Kanton Zürich, wurde im Jahr 2005 von Andrea Hodel (Mitglied des Verwaltungsrates), Ralph Bäumle (Direktor), Nora Ebel (Direktorin), Peter Fischer (Direktor), Rolf Gmünder (Direktor), Andreas Hefti (Direktor) und Michael Murphy (Direktor) gegründet.

powered by www.it-daily.net


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*