IT-Verantwortliche sollten sich der "dunklen Geheimnisse" der KI-Nutzung bewusst sein, wenn sie geschäftsrelevante Insights generieren wollen. [...]
Schon immer hat die Menschheit von einem allmächtigen Flaschengeist geträumt, der ihnen mühsame Aufgaben abnimmt. Dieser Traum rückt nun in Form der künstlichen Intelligenz (KI) in greifbare Nähe. Lässt man sich vom Hype vereinnahmen, wird KI mit so ziemlich allem fertig, was in einem Unternehmen anfällt – oder zumindest vorübergehend mit Teilen davon.
KI-Innovationen können verblüffen. Virtuelle Helfer wie Siri, Alexa oder der Google Assistant wären einem Zeitreisenden noch vor zehn oder 15 Jahren geradezu magisch erschienen: Das gesprochene Wort der Nutzer ist den Virtual Assistants Befehl und im Gegensatz zu Spracherkennungs-Tools aus den 1990er Jahren geben sie auch oftmals die passende Antwort – vorausgesetzt, man vermeidet verfängliche Fragen.
Trotz all dieser „Magie“ sind KI-Instanzen auf Programmierarbeit angewiesen. Folglich gelten für sie dieselben Einschränkungen, wie für den vergleichsweise anspruchslosen Programmcode von Kalkulationstabellen oder Textverarbeitungsprogrammen. Obwohl sie besser mit den statistischen Unwägbarkeiten der Welt jonglieren kann, steckt hinter KI letztendlich ein Computer, der Entscheidungen auf der Grundlage von Rechenoperationen trifft. Hinter all den ausgeklügelten Algorithmen verbirgt sich eine Reihe von Transistoren, die „Wenn-Dann“-Entscheidungen treffen.
Können wir damit leben? Haben wir überhaupt eine Wahl? Da künstliche Intelligenz in allen Wirtschaftszweigen an Bedeutung gewinnt, müssen wir uns der folgenden dunklen Geheimnisse der KI bewußt sein.
1. KI-generierte Banalitäten
Eine der undankbarsten Aufgaben für einen KI-Experten ist es, dem Chef mitteilen zu müssen, dass die durch KI gewonnen Erkenntnisse leider bereits allgemein bekannt sind. Möglicherweise hat die KI zehn Milliarden Fotos ausgewertet und entdeckt, dass der Himmel blau ist. Waren im Trainingsdatenset allerdings keine Nachtaufnahmen enthalten, bleibt die Tatsache, dass es nachts dunkel ist, der künstlichen Intelligenz vorbehalten.
Wie lässt sich also vermeiden, dass die KI Offensichtliches schlussfolgert? Die stärksten Signale in den Daten sind immer die offensichtlichsten, ob für einen Mitarbeiter oder für die Algorithmen, die sich durch die Daten wühlen. Folglich sind das auch die ersten Antworten, die zurückgespielt werden.
2. Differenziert lohnt nicht immer
Selbstverständlich erkennen gute KI-Instanzen bei präziser Datenlage auch kleine Unterschiede. Um solche Detail-Insights gewinnbringend nutzen zu können, müssen Unternehmen allerdings häufig tiefgreifende, strategische Veränderungen in ihrem Workflow vornehmen.
Einige dieser Details werden auch schlicht zu subtil sein, als dass es sich lohnen würde, ihnen nachzugehen. Die Rechner werden sich dennoch die Prozessoren darüber „zerbrechen“. Das Problem liegt einfach darin, dass kleine Signale zu kleinen – oder gar keinen – Erträgen führen können.
3. Mysteriöse Computer wirken bedrohlicher
Die Wissenschaftler der Informatik-Frühzeit hofften, der mathematische Ansatz eines Algorithmus würde der endgültigen Entscheidung einen Hauch von Seriosität verleihen. Dennoch sind viele Menschen auf der Welt nicht bereit, sich dem „Gott der Logik“ zu unterwerfen.
Wenn überhaupt, spielen die Komplexität und das Mysterium der künstlichen Intelligenz all jenen in die Karten, die mit den gelieferten Antworten nicht einverstanden sind. Das lässt Spielraum für Kritik: War der Algorithmus voreingenommen? Je mehr Komplexität unter der „KI-Haube“ steckt, desto mehr Gründe gibt es für Misstrauen und Wut.
4. KI ist nur Kurvenanpassung
Wissenschaftler beschäftigen sich seit Jahrhunderten mit verrauschten Datenbeständen und verbinden Datenpunkte. Das Gros der heutigen KI-Algorithmen, die für Machine Learning zur Anwendung kommen, tut im Grunde nichts anderes: Sie analysieren Datenbestände und verbinden Datenpunkte. Ein großer Teil des Fortschritts beruht darauf, dass man Wege gefunden hat, dieses Verfahren in Tausende, Millionen oder gar Milliarden kleiner Teilprobleme zu zerlegen und diese dann miteinander zu verbinden.
Das ist keine Magie, sondern eine Art Fließbandarbeit von dem, was in der Wissenschaft schon seit Jahrhunderten praktiziert wird. Menschen, die künstlicher Intelligenz skeptisch gegenüberstehen, heben gerne die Tatsache hervor, dass es weder eine wissenschaftliche Theorie, noch ein philosophisches Gerüst gibt, das den Antworten der KI Glaubwürdigkeit verleiht. Für sie handelt es sich nur um eine Schätzung der Steigung irgendeiner Linie.
5. Datensammeln ist die echte Arbeit
Jeder Data-Science-Anfänger stellt schnell fest, dass für Wissenschaft nicht viel Zeit bleibt. Die Kernaufgabe besteht darin, Daten zu finden und zu sammeln. Das Feld der künstlichen Intelligenz ist eng mit der Datenwissenschaft verwandt und steht vor den gleichen Herausforderungen: Es besteht zu 0,01 Prozent aus Inspiration und zu 99,99 Prozent aus Transpiration beim Tüfteln über Dateiformate, fehlende Datenfelder und Zeichencodes.
6. Riesige Datensätze, fundierte Schlussfolgerungen
Während einige Problemlösungen leicht zu finden sind, brauchen komplexere Fälle oft mehr und mehr Daten. Dieser Datenhunger kann sich exponentiell steigern und bis ins Unermessliche wachsen.
7. Bias Lock-In
Genau wie in Platons Höhlengleichnis sind wir alle durch das bestimmt, was wir sehen und wahrnehmen können. Das ist bei künstlicher Intelligenz nicht anders: Ihre Wahrnehmung wird durch den Trainingsdatensatz explizit limitiert. Wenn es Verzerrungen in den Daten gibt – und davon wird es einige geben – übernimmt die KI diese . Das Problem: Datenlücken führen dazu, dass auch das Weltverständnis der KI lückenbehaftet ist.
8. KI ist ein Stromfresser
Die meisten guten Spiele haben ein Endlevel oder ein ultimatives Ziel. Künstliche Intelligenz kann hingegen immer komplexer werden. Solange Sie willens sind, die Stromrechnung zu bezahlen, bildet die KI immer komplexere Modelle aus, deren Knoten, Ebenen und internen Zustände sich vervielfachen. Vielleicht gewinnt das Modell durch diese zusätzliche Komplexität an Nutzwert. Vielleicht sind dazu aber auch noch mehr GPUs nötig, die dann die Nacht durchlaufen.
9. Von wegen Explainable AI
KI-Forscher haben in letzter Zeit mehr Aufmerksamkeit darauf verwendet, zu erklären, was genau künstliche Intelligenz eigentlich tut. Wir können in den Daten stöbern und feststellen, dass das trainierte Modell stark auf Parameter angewiesen ist, die aus einer bestimmten Ecke des Datensatzes stammen. Oft genug ähneln solche Erklärungen jedoch denen von Zauberern, die einen Trick durch das Vorführen eines anderen erläutern.
Die Frage nach dem „Warum“ zu beantworten, gestaltet sich erstaunlich schwer, selbst wenn man sich die einfachsten linearen Modelle und Parameter vornimmt. Wenn das Modell vorgibt, die Anzahl der jährlich gefahrenen Kilometer mit dem Faktor 0,043255 zu multiplizieren, fragen Sie sich vielleicht, warum gerade dieser und nicht 0,043256 oder 0,7. Sobald Sie ein Kontinuum verwenden, könnten alle Zahlen entlang des Zahlenstrahls geeignet sein.
10. Fairness ist eine Herausforderung
Selbst wenn man die Körpergröße aus dem Trainingsdatenset entfernt, stehen die Chancen gut, dass eine KI einen anderen Wert findet, um die großgewachsenen Menschen für Ihre Basketballmannschaft herauszupicken. Vielleicht die Schuhgröße oder die Reichweite. Die Menschen haben davon geträumt, dass die Welt gerechter wird, wenn man eine neutrale KI bittet, eine unvoreingenommene Entscheidung zu treffen. Manche Probleme sind allerdings so tief in der Realität verankert, dass auch die Algorithmen sie nicht besser bewältigen können.
11. Verschlimmbesserungen
Kann es tatsächlich eine Lösung sein, eine KI zur Fairness zu „zwingen“? Einige Menschen versuchen zu erzwingen, dass künstliche Intelligenz Ergebnisse mit bestimmten, vorgegebenen Prozentsätzen generiert. Sie schreiben die Algorithmen um, damit sich der Output verändert. Das wirft allerdings die Frage auf, warum man sich die Mühe machen sollte, KI-Instanzen zu trainieren oder Daten zu analysieren, wenn die Antwort ohnehin bereits feststeht.
12. Der Mensch – das eigentliche Problem
Im Allgemeinen sind wir mit KI zufrieden. Zumindest solange die Risiken gering sind. Wer zehn Millionen Bilder zu sortieren hat, wird froh sein, wenn die KI über einen längeren Zeitraum hinweg einigermaßen genaue Ergebnisse liefert. Sicher, Schwierigkeiten und Fehler sind dabei nicht zu vermeiden. Einige dieser „Glitches“ könnten sogar auf tiefgreifende Bias-Probleme hindeuten, die eine haarspalterische, 200-seitige Dissertation wert sind.
Aber die künstliche Intelligenz ist nicht das Problem. Sie tut, was man ihr sagt. Wenn zu viele Fehlermeldungen auflaufen, können wir diese ausblenden. Wenn das Trainingsdatenset keine perfekten Ergebnisse liefert, können wir weiteren Daten fordern. Wenn die Genauigkeit zu wünschen übrig lässt, können wir das Ergebnis einfach verwerfen. Die KI wird wieder an die Arbeit gehen und ihr Bestes tun.
Der Mensch ist jedoch ein völlig anderes Geschöpf: Künstliche Intelligenz ist sein Werkzeug, um sich Vorteile zu verschaffen und zu profitieren. Während einige KI-Vorhaben vergleichsweise harmlos sind, sind andere von Böswilligkeit geprägt. Wenn wir auf eine schlechte KI stoßen, dann liegt das in den meisten Fällen daran, dass sie die Marionette an der Schnur eines Menschen ist, der sich an ihren Unzulänglichkeiten bereichert.
*Daniel Fejzo ist freier Mitarbeiter der Redaktion COMPUTERWOCHE.
Be the first to comment