KI und die Vertrauensfrage: Wie transparent muss Technologie sein?

Bei wichtigen Entscheidungen ist eine zweite Meinung oft hilfreich. Doch was, wenn diese zweite Meinung von einer Künstlichen Intelligenz (KI) statt von einem Menschen stammt? Können wir Maschinen vertrauen? [...]

Benedikt Bonnmann, Leiter Line of Business Data & Analytics, adesso SE. (c) adesso
Benedikt Bonnmann, Leiter Line of Business Data & Analytics, adesso SE. (c) adesso

Bei einer KI-basierten Produktempfehlung im Online-Shop eines Händlers mag die Antwort darauf noch egal sein. Versicherungen oder Banken hingegen sollten Erklärungen liefern, wenn ein Algorithmus eine Leistung verweigert oder einen Kreditantrag ablehnt. Nicht viel anders sieht es bei Unternehmen aus, die aufgrund einer KI-Vorauswahl Bewerbende aussortieren. Wenn es um Gleichbehandlung oder, ganz allgemein, um ethische Fragen geht, dürfen wir uns nicht hinter Computerentscheidungen verstecken. Vielmehr brauchen Algorithmen Ziele und Grenzen, die Menschen nachvollziehbar und transparent definieren – ansonsten droht ein Vertrauensverlust auf Seiten der Verbraucherinnen und Verbraucher.

Nun mögen die Zeiten, in denen KI mal zur Wunderwaffe verklärt, mal zur Gefahr für den Menschen aufgebauscht wurde, vorbei sein. Realismus und Sachlichkeit statt Technik-Angst bestimmen heute in aller Regel die Debatte rund um die Technologie. Laut der jüngsten KI-Studie von adesso haben Unternehmensverantwortliche auch diesen Eindruck: 61 Prozent sind davon überzeugt, dass Verbraucher KI als vertrauenswürdig einstufen. Dieses grundlegende Vertrauen darf aber nicht dadurch verspielt werden, dass – ob bewusst oder unbewusst – die Algorithmen eigenmächtig handeln. Denn auch das belegt die Untersuchung: 80 Prozent der Entscheiderinnen und Entscheider finden, dass KI-Anwendungen nicht ohne menschliche Kontrolle eingesetzt werden dürfen. 54 Prozent sind zudem der Meinung, dass KI-Technologien stärker reguliert werden müssen, um Manipulationen jeder Art zu verhindern.

Unternehmen tun deshalb gut daran, eine sogenannte Explainable AI zu schaffen. Diese speziellen Anwendungen öffnen die Black Box, indem sie transparent arbeiten und Erklärungen für eine getroffene Entscheidung liefern. Das reicht von der Herkunft und Charakteristika der Trainingsdaten über die Durchschaubarkeit und Verständlichkeit des Algorithmus bis hin zum Einhalten ethischer Grundwerte.

In die gleiche Richtung geht aktuell die Diskussion auf Seiten des Gesetzgebers. Mit dem Artificial Intelligence Act der EU steht eine Verordnung vor der Tür, die – sobald in nationale Gesetze gegossen – weitreichende Folgen haben wird.

Mit dem Act will die EU ein Rahmenwerk schaffen, das die Entscheidungen von KI-Anwendungen kategorisiert und den Einsatz gegebenenfalls stärker kontrolliert. Dies soll negative Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen verhindern. Ähnlich wie bei der Datenschutz-Grundverordnung (DSGVO) wird das geplante Gesetzeswerk vermutlich sogar über die Grenzen der EU hinaus Wirkung zeigen. Denn alle Anbieter, die innerhalb des europäischen Wirtschaftsraums KI-basierte Produkte und Dienste verkaufen wollen, müssen sich an den Artificial Intelligence Act halten. Das Regelwerk sieht zudem ähnlich drastische Strafen vor: Wer die Vorgaben verletzt, muss laut Entwurf mit einem Bußgeld von bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes rechnen. Die Erfahrungen mit der DSVGO zeigen: Die zuständigen Behörden sind keine zahnlosen Tiger. Sie ahnden Verstöße konsequent.

Zwar sind einige Punkte rund um die Umsetzung des Artificial Intelligence Act bislang noch nicht geklärt. Für Unternehmen gilt es trotzdem jetzt schon, die Weichen zu stellen und das Risiko ihrer KI-Systeme zu bewerten. Es wäre zu einfach, sich angesichts der Wahrscheinlichkeit, dass das Gesetzespaket nicht vor 2024 in Kraft treten wird, entspannt zurückzulehnen. Wer das macht, läuft Gefahr, später unter Zeitdruck zu geraten. Zudem haben Verbraucherinnen und Verbraucher schon heute ein Recht auf eine Explainable AI – Gesetze hin oder her.

*Benedikt Bonnmann ist Leiter Line of Business Data & Analytics bei adesso SE.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*