Studie: Wenig Problembewusstsein von Unternehmen in punkto Ethik und KI

Laut einer aktuellen Capgemini-Studie ist das Bewusstsein für ethische Fragestellungen beim Einsatz von Künstlicher Intelligenz (KI) in Unternehmen und Verwaltungen gestiegen. Gleichzeitig wurden jedoch nur in Teilbereichen Verbesserungen erzielt. [...]

Andreas Hornich, Head of Insights and Data bei Capgemini in Österreich
Andreas Hornich, Head of Insights and Data bei Capgemini in Österreich (c) Capgemini

Es ist eine gemischte Bilanz, die sich aus der die Studie “ AI and the ethical Conundrum: How Organizations can build ethically robust AI Systems and gain Trust” ergibt. Demnach sehen Unternehmen zunehmend einen Handlungsbedarf hinsichtlich ethischer KI-Systeme: 45 Prozent haben 2020 eine KI-Charta definiert (2019: 5 Prozent) und zwei Drittel (65 Prozent) der Führungskräfte sind sich bewusst, dass KI-Systeme potenziell zu diskriminierenden Entscheidungen führen können. 58 Prozent geben zudem an, ihre Mitarbeiter über die möglichen Auswirkungen der KI-Nutzung aufgeklärt zu haben. Dennoch verzeichnen KI-Systeme 2020 allein in der ethischen Dimension Erklärbarkeit Fortschritte gegenüber 2019. Zudem meinen nur 40 Prozent der KI-Entwickler sowie 27 Prozent der KI-Anwender aus Marketing und Vertrieb nachvollziehen zu können, wie Entscheidungen durch KI getroffen werden. Auf Seiten der Verbraucher erwarten hingegen 71 Prozent, dass Unternehmen solche Entscheidungen genau herleiten können. Weiterhin setzen 66 Prozent voraus, dass KI-Modelle fair und vorurteilsfrei agieren und Interaktionen transparent ablaufen. 

Für die Studie befragte das Capgemini Research Institute insgesamt 2.900 Konsumenten in sechs Ländern sowie knapp 900 Führungskräfte in zehn Ländern. Die Ergebnisse wurden zudem mit verschiedenen Studien des Vorjahres verglichen.

COVID-19 wirkt sich negativ auf die Transparenz von KI-Verfahren aus

Die Studie untersucht KI-Systeme anhand der vier ethischen Dimensionen Erklärbarkeit, Fairness, Überprüfbarkeit und Transparenz und kommt zu dem Ergebnis, dass sich 2020 ausschließlich die „Erklärbarkeit“ verbessert hat: Demnach können mit 64 Prozent doppelt so viele Unternehmen und Organisationen wie 2019 die Funktionsweise ihrer KI-Systeme in einfacher Sprache erklären. Eine Überprüfung der Datensätze und KI-Systeme zwecks einer fairen Gleichbehandlung aller Gruppen nehmen 65 Prozent (2019: 66 Prozent) vor. Ebenfalls um einen Prozentpunkt auf 45 Prozent sank die Zahl der Unternehmen, die unabhängige Audits bei ihren KI-Systemen gemäß der „Überprüfbarkeit“ ethischer Aspekte durchführen. Am stärksten ging die Anzahl an Unternehmen zurück, die KI-Anwender transparent über die möglichen Auswirkungen von KI-Entscheidungen informieren; ihr Anteil sank von 73 auf 59 Prozent Dies spiegelt sich auch im gesunkenen Vertrauen der Verbraucher wider, von denen nur mehr 62 Prozent (2019: 76 Prozent) den Unternehmen attestieren, transparent zu agieren. 

Als mögliche Ursachen hierfür nennt die Studie die gestiegene Komplexität von KI-Anwendungen, den Versuch, Geschäftspraktiken zu schützen sowie die Auswirkungen auf den Algorithmus durch die Corona-Pandemie. Demnach haben ein verändertes Konsumentenverhalten, der Mangel an historischen Daten für vergleichbare Situationen sowie die geänderte Gewichtung von Sicherheitsaspekten und weiterer Kriterien dazu geführt, dass Systeme neu gestaltet und an die neue Normalität angepasst werden mussten.  

Kundenerwartungen und staatliche Regulierungen üben Handlungsdruck aus

Viele öffentliche und private Institutionen haben zusätzliche KI-Technologien eingeführt, um den Folgen der Corona-Pandemie zu begegnen. Entsprechend wird das Vertrauen der Verbraucher in KI-Interaktionen künftig umso wichtiger. Zugleich erhöhen gesetzliche Rahmenbedingungen den Druck auf Unternehmen. So hat die Europäischen Kommission ethische Leitlinien entwickelt („Ethics guidelines for trustworthy AI”, April 2019) und die US-Handelskommission FTC Anfang 2020 Richtlinien für eine transparente KI („Using Artificial Intelligence and Algorithms”, April 2020) aufgestellt. Letztere sehen vor, dass Verbrauchern bei negativen Entscheidungen – beispielsweise einem abgelehnten Kredit – die zur Entscheidungsfindung zentralen Datenpunkte offengelegt werden. Damit sollen sie die Chance erhalten, falsche oder irreführende Angaben zu korrigieren. Von den Unternehmen geben 62 Prozent an, in ihrer Region geltende Datenschutzbestimmungen wie GDPR zu erfüllen, eine Steigerung um 13 Prozentpunkte im Vergleich zu 2019.

Die Studie zeigt, dass Datensätze mitunter tatsächlich soziale und kulturelle Vorurteile („Bias“) aufweisen (SSIR, „The Problem With COVID-19 Artificial Intelligence Solutions and How to Fix Them”, Juni 2020), wobei sich 65 Prozent der Führungskräfte des Problems diskriminierender Verzerrungen bewusst sind. Einer rechtlichen Prüfung wurden bereits 60 Prozent der Unternehmen unterzogen. Insgesamt 22 Prozent der Unternehmen wurden in den letzten drei Jahren von Kunden damit konfrontiert, dass sie KI-basierte Entscheidungen anzweifeln, beziehungsweise die Entscheidungsfindung nachvollziehen wollen. Hierin liegt ein Erfolgsrisiko, da 45 Prozent der Kunden negative Erfahrungen mit Freunden und Verwandten teilen und sie dazu anhalten würden, nicht mit den entsprechenden Unternehmen in Kontakt zu treten. Jeweils 39 Prozent würden bei fragwürdigen Entscheidungen eine Erklärung verlangen, beziehungsweise auch höhere Kosten in Kauf nehmen, um zu einem menschlichen Ansprechpartner zu wechseln. Über ein Viertel der Verbraucher (27 Prozent) würde den Kontakt zur entsprechenden Organisation abbrechen.   

Rechenschaft für Führungskräfte in ethischen Belangen etablieren

Unternehmen sollten gemäß der Studie eine verantwortliche Führungskraft, etwa einen Chief Ethics Officer, etablieren, um ethisch robuste KI-Systeme sicherzustellen. Momentan ist diese Funktion in 53 Prozent der Unternehmen vorhanden. Über einen Ombudsmann oder eine Hotline, an die sich Kunden und Mitarbeiter bezüglich ethischer Fragen zu KI-Systemen wenden können, verfügt ebenfalls nur jedes zweite Unternehmen. Zudem sollten auch Führungskräfte der Geschäfts- wie Technologieebenen gewährleisten können, dass in ihrem Bereich eingesetzte KI-Anwendungen ethische Ergebnisse liefern.

Zusammenfassend hebt die Studie sieben zentrale Maßnahmen hervor, die für den Aufbau eines ethisch robusten KI-Systems entscheidend sind und auf einem belastbaren Fundament aus Führung, Steuerung („Governance“) und internen Prozessen basieren müssen. Organisationen sollten daher: 

  • den beabsichtigen Zweck des KI-Systems präzise beschreiben können und die potenzielle Gesamtwirkung ermitteln
  • KI aktiv zum Nutzen von Gesellschaft und Umwelt einsetzen
  • die Prinzipien von Vielfalt und Inklusion im gesamten Lebenszyklus der KI-Systeme verankern
  • die Transparenz mit Hilfe geeigneter Technologie-Werkzeuge optimieren
  • sicherstellen, dass KI-Erfahrungen auf den Menschen ausgerichtet sind und KI-Systeme unter menschlicher Aufsicht stehen
  • gewährleisten, dass KI-Systeme technisch robust sind
  • die Privatsphäre schützen, indem Nutzern die Kontrolle über ihre KI-Interaktionen gegeben wird.

Andreas Hornich, Head of Insights and Data bei Capgemini in Österreich, bemerkt: „Wir betrachten hierzulande die ethischen Dimensionen von Künstlicher Intelligenz häufig recht eindimensional und stark auf die Risikominimierung fokussiert“, sagt Andreas Hornich, Head of Insights and Data bei Capgemini in Österreich: „Dennoch treten KI-Anwendungen als App zur Gesichtsdekoration, als Stauvorhersage bei der Navigation oder als Gesichtserkennung in intelligenten Kameras vielfach in unser Leben, nur stammen sie dann aus einem anderen Land.“ Unternehmer sollten daher die Chance ergreifen, so Hornich, das transformative Potential von KI zu nutzen, um gesellschaftlichen Nutzen zu stiften und gesellschaftliche Verantwortung zu übernehmen. Denn, so Hornich, „dies wirkt sich nicht nur positiv auf die Reputation des Unternehmens aus, denn das Gelernte kann auch einen maßgeblichen Beitrag zur Geschäftsentwicklung leisten.“ Die Studie liefere konkrete Vorschläge, wie Risiken begegnet werden und auf Regulierungsmaßnahmen reagiert werden kann, um sich langfristig einen Wettbewerbsvorteil zu sichern, beschreibt Hornich den konkreten Nutzen der Studie.


Mehr Artikel

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*