6 Tipps zur Förderung der ethischen KI im Unternehmen

Während sich der Ruf nach einer so genannten "ethischen KI" seinem Höhepunkt nähert, empfehlen Experten Schritte zur Entwicklung fairer und ausgewogener Algorithmen. Ein Tipp: Es gibt keine Wunderwaffe. [...]

Mit großer Macht kommt große Verantwortung. Es ist an der Zeit, Vorurteile innerhalb der KI so früh wie möglich einzudämmen (c) Pixabay.com

Künstliche Intelligenz (KI) ist potenziell die disruptivste Technologie des digitalen Zeitalters, da Unternehmen die Möglichkeiten zur Nutzung maschinellen Lernens (ML) und anderen KI-Tools erkunden, um Kundeninformationen zu gewinnen, Talente zu ermitteln und sichere Unternehmensnetzwerke zu schaffen. Und während IT-Abteilungen die meisten Technologien schnell einführen und einsetzen können, deuten die Ergebnisse darauf hin, dass CIOs bei der Implementierung von KI äußerste Vorsicht walten lassen sollten, einschließlich des Einsatzes von Technologien mit starken ethischen Gesichtspunkten.

Der Grund? Künstliche Intelligenz leidet unter einem großen Verzerrungsproblem. Zum Beispiel hat Amazon.com ein Rekrutierungstool verworfen, nachdem es nicht in der Lage war, Frauen für Jobs von Softwareentwicklern und andere technische Stellen fair zu bewerten. In einem weiteren Beispiel fanden Forscher des MIT und der University of Toronto heraus, dass die Gesichtserkennungssoftware des Unternehmens Frauen, insbesondere solche mit dunkler Haut, für Männer hält.

Vorurteile sind in der KI im Überfluss vorhanden

Amazon.com ist da nicht allein, da KI-Probleme längst auch in anderen Unternehmen und in anderen hochrangigen Bereichen aufgetreten sind. Ein Facebook-Programm-Manager stieß beim Testen des Portal-Video-Chat-Geräts des Unternehmens zum Beispiel ebenfalls auf algorithmische Diskriminierung. ProPublica hat gezeigt, dass Software, die in den USA verwendet wird, um zukünftige Kriminelle vorhersagen zu können, oft gegen Afroamerikaner gerichtet ist. Eine Studie der UC Berkeley über Fintechs ergab, dass sowohl persönliche Entscheidungen als auch Algorithmen, die bei der Hypothekarkreditvergabe verwendet werden, den lateinamerikanischen Kreditnehmern höhere Zinssätze aufbürden.

Besorgniserregend ist auch die Diskriminierung bei den Randgebieten, ein Vorurteil, das in seiner Subtilität heimtückisch sein kann. In der „Proxy-Diskriminierung“ können Postleitzahlen als Proxy für die Rasse dienen; Wortwahl kann ein Proxy für das Geschlecht sein; und der Beitritt zu einer Facebook-Gruppe über eine genetische Mutation kann eine Person in eine Hochrisikokategorie für die Krankenversicherung einordnen, obwohl dieses Signal nicht explizit in den Algorithmus kodiert wurde.

Künstliche Intelligenz, das liegt auf der Hand, leidet unter einer digitalisierten Version von Vorurteilen, die auch die physische Welt heimsuchen. Schließlich sind Algorithmen eine „Kreation des menschlichen Designs“, die unsere Vorurteile übernehmen, erklärte Kate Crawford, Mitbegründerin des KI Now Institute der New York University. Und diese Vorurteile erstrecken sich über Jahrzehnte, so das IEEE Spectrum.

Dementsprechend sind IT-Führungskräfte zunehmend daran interessiert, eine „erklärbare“ KI zu entwickeln. Sie suchen nach Algorithmen, deren Ergebnisse klar artikuliert werden können und im Idealfall Regulierungsbehörden und Führungskräfte gleichermaßen befriedigen. Aber angesichts der inhärenten Vorurteile brauchen sie vielleicht wirklich so etwas wie „ethische KI“ oder Algorithmen, die mit der vollen Fairness von Inklusion arbeiten.

Verwendung von Ethik zur Beseitigung von KI-Vorurteilen: 6 Tipps

Vorsichtiges Vorgehen ist entscheidend, da CIOs ihre Einführung von KI gerade vorantreiben. Laut der Gartner-Umfrage 2019, die insgesamt 3.000 CIOs umfasste, stieg die Zahl der Unternehmen, die KI einsetzen, von nur 10 Prozent vor vier Jahren auf insgesamt 37 Prozent heute. Kurzfristig sollten Unternehmen versuchen, auch Ethik für den Einsatz von KI miteinzubeziehen. Experten von Deloitte, Genpact und Fjord diskutieren im Folgenden, wie Unternehmen den Einsatz von KI auf eine faire Weise vorantreiben können.

1. Einbeziehung des Vorstands und Einbeziehung von Interessengruppen

Da ethische Fragen im Zusammenhang mit KI breite und langfristige Risiken für die Reputation, die Finanzen und die Strategie eines Unternehmens mit sich bringen können, sollten CIOs mit ihrem Vorstand zusammenarbeiten, um KI-bezogene Risiken zu minimieren, sagt David Schatsky, Managing Director des US-Innovationsteams von Deloitte. Die Einbettung von Ethik in die KI beginnt mit der Bestimmung, was für die Interessengruppen, einschließlich Kunden, Mitarbeiter, Aufsichtsbehörden und die Öffentlichkeit, wichtig ist. „Unternehmen müssen sich engagieren und offen und transparent darüber sein, wer ihre Interessengruppen sind“, so Schatsky.

2. Einrichtung eines Unterausschusses „Digitale Ethik“

Aufsichtsräte verfügen bereits über Audit-, Risiko- und Technologieausschüsse, aber es sollte nun auch an der Zeit sein, einen Ausschuss für KI einzurichten, sagt Sanjay Srivastava, Chief Digital Officer von Genpact, der Technologien für Unternehmen entwickelt und implementiert. Ein solcher „digitaler Ethikausschuss“ muss sich aus funktionsübergreifenden Führungskräften zusammensetzen, die mit Interessengruppen zusammenarbeiten können, um bei der Entwicklung und Steuerung von KI-Lösungen zu helfen. Dieser Ausschuss muss auch über die Vorschriften für KI informiert sein. Von den von Genpact befragten Unternehmen gaben 95 Prozent an, dass sie KI-Bias bekämpfen wollten, aber nur 34 Prozent verfügen über die entsprechende Governance und Kontrolle. „Wir empfehlen unseren Kunden, früher als später anzufangen“, so Srivastava. „Das Bewusstsein ist da, die Leute verstehen es, aber sie haben die nötige Governance und Kontrolle nicht implementiert.“

3. Design-Denken ausnutzen

Unabhängig davon, ob Unternehmen KI intern aufbauen oder ein kommerzielles Tool kaufen, verpflichtet es sie, Lösungen mit Hilfe von Design-Denken zu entwickeln, die helfen können, potenzielle Vorurteile in ihren Algorithmen im Vorfeld zu beseitigen, meint Shelley Evenson, Geschäftsführerin der Accenture Designberatung Fjord. Und während interne Apps, die Wetter- und Social-Media-Signale nutzen können, um Verkäufe oder Produktnachfrage zu prognostizieren, nicht das Potenzial haben wie diejenigen, die eine direkte Auswirkung auf Mitarbeiter und Kunden haben, ist es ein guter Ansatz, Empathie in den Prozess der Technologieentwicklung einzubringen.

4. Einsatz von Technologien zur Beseitigung von Vorurteilen

Entwickler von Corporate AI müssen auch darauf geschult werden, Systeme zu testen und zu korrigieren, die unbeabsichtigt Bias kodieren, die Benutzer oder andere betroffene Parteien ungerecht behandeln. Unternehmen können auch Tools einsetzen, die erkennen, wie Datenvariablen mit sensiblen Variablen – wie Alter, Geschlecht oder Rasse – korreliert werden können, sowie Verfahren zum Auditing und zur Erklärung, wie Algorithmen des maschinellen Lernens ihre Ergebnisse erzeugen. Srivistava erklärt zum Beispiel, dass Unternehmen digitale „Brotkrumen“ in Algorithmen einfügen könnten, um Entscheidungsprozesse zu verfolgen.

5. Seien Sie transparent bei der Nutzung von KI

Unternehmen können wesentlich dazu beitragen, Vertrauen bei den Interessengruppen aufzubauen, indem sie transparent über den Einsatz von KI sind. Zum Beispiel, anstatt sich als Mensch zu maskieren (wie es viele Chatbots heute noch tun), sollten sich intelligente Agenten als solche identifizieren, meint Schatsky. Unternehmen sollten auch den Einsatz von automatisierten Entscheidungssystemen offenlegen, die Kunden betreffen. Wenn möglich, sollten Unternehmen klar darlegen, welche Daten sie sammeln, was sie damit machen und wie sich diese Nutzung auf die Kunden auswirkt.

6. Die Verdrängungsangst Ihrer Mitarbeiter lindern

Der Grad, in dem KI Arbeitsplätze beseitigen oder umgestalten wird, ist noch nicht ganz klar, aber Unternehmen sollten dennoch beginnen, ihre Mitarbeiter darüber aufzuklären, wie sich ihre Arbeitsplätze ändern können, und ihnen Wege zur Umschulung empfehlen, um relevant zu bleiben. Dazu gehört auch die Umschulung von Mitarbeitern, deren Aufgaben in Zukunft automatisiert werden sollen – oder die Möglichkeit, Zeit für die Suche nach einer neuen Beschäftigung zu haben. Der Versicherer State Auto zum Beispiel schult sein Personal für komplexere Schadensfälle, da die robotische Prozessautomatisierung (RPA) zunehmend untergeordnete Aufgaben bearbeitet.

Fazit

Nichts davon ist einfach, vor allem, weil es nicht viel Konsens darüber gibt, was in einer bestimmten Situation und mit bestimmten Interessengruppen als ethisch angesehen wird, sagt Schatsky. Unabhängig vom Ansatz wäre es ratsam, dass Unternehmen schon jetzt Maßnahmen ergreifen, anstatt „darauf zu warten, dass die KI-bezogene Regulierung aufholt“, so Schatsky.

Regierungen bewegen die Nadel bereits in diese Richtung. Die Europäische Kommission hat im April eine Reihe von Leitlinien veröffentlicht, wie Unternehmen ethische Anwendungen der künstlichen Intelligenz (KI) entwickeln sollten. Zwei Tage später schlug die US-Regierung den Algorithmic Accountability Act von 2019 vor, um risikoreiche KI-Systeme zu behandeln, wie beispielsweise Technologien, die Gesichter erkennen oder wichtige Entscheidungen auf der Grundlage sensibler personenbezogener Daten treffen.

Was auch immer die Zukunft in Bezug auf die Regulierung sein mag, CIOs haben jetzt einige Zeit, um Bedenken auszuräumen. Derzeit wird die Übernahme von Unternehmens-KI durch einen Mangel an Daten und Datenqualitätsproblemen, einen Mangel an Machine Learning Modellierern, Datenwissenschaftlern und anderen KI-Spezialisten sowie ungewisse Ergebnisse und natürlich Ethikfragen und Vorurteilen behindert, ergab eine O’Reilly-Umfrage.

Finanzdienstleistungen, Gesundheitswesen und Bildungssektor machen 58 Prozent der Unternehmen aus, die KI einführen, verglichen mit jeweils nur 4 Prozent für Telekommunikation, Medien und Unterhaltung, Regierung, Fertigung und Einzelhandel, so O’Reilly.

*Clint Boulton ist Senior Writer bei CIO.com und befasst sich mit der IT-Führung, der CIO-Funktion und der digitalen Transformation.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*