Interessanterweise neigen wir dazu, von KI mehr zu erwarten als von den Menschen. Konstruktiver wäre es, zunächst nur die Leistungsmerkmale von KI anzuschauen: Was kann sie? Worin ist sie tatsächlich besser, oder auch zu riskant? [...]
Vielleicht lässt sich die Essenz der KI-Weiterentwicklung am besten im Vergleich darstellen. Vor einigen Jahren rückten die sogenannten Data Lakes ins Zentrum der Aufmerksamkeit. Diese Wissenssammlungen machen umfangreiche unstrukturierte Daten bibliotheksartig, mitunter indexiert für Unternehmen, zugänglicher. Daraus Schlüsse zu ziehen und Antworten zu finden, ist einem jedoch selbst überlassen. Zwar verbessert sich so die Verfügbarkeit des »Rohstoffes« Information, aber weder Data Lakes noch Bücher übernehmen einen aktiven Part, haben also kein »Produktionsverfahren« um daraus Erkenntnisse zu gewinnen. Hier macht die KI den Unterschied. Erstmals haben wir in der Evolution von Technologie ein Werkzeug, mit dem wir aus diesen Daten tatsächlich eine neue Generation von Produkten erschaffen können. Warum jetzt? Weil die erforderliche Rechenkapazität vorhanden ist, die Weiterentwicklung der natürlichen Sprachverarbeitung den täglichen Gebrauch unterstützt und weil zahlreiche Experimente, Use Cases und Erfahrungen vorliegen, die das Ergebnis von mehreren Dekaden Forschung sind. Unter diesen Umständen konnte ChatGPT an den Start gehen. Das ist eine neue Ära im Wissensmanagement und in der Art, mit digitalen Systemen zu interagieren.
Kann KI neues Wissen erzeugen?
Unaufgefordert liefert KI (noch) nichts: Wir entscheiden, womit wir sie triggern, sei es sprachlich, durch Sensoren, Zeitsteuerungen oder vordefinierte Ereignisse. Und sie braucht von uns ein Ziel bzw. eine Aufgabe. Abhängig davon setzt die KI ihre Aktionen und entwickelt sich dabei in einigen Fällen sogar selbst weiter. Sie übernimmt also einen aktiven Part und ja, sie kann auch »falsche«, untragbare, ethisch nicht vertretbare Ergebnisse liefern. KI einen noch aktiveren Part in unseren Prozessen zu geben ist in der KI-Entwicklung der aktuell brennendste Punkt. Experimente wie ChaosGPT, oder selbstfahrende Fahrzeuge zeigen uns, wie wichtig es ist, Rahmenbedingungen und ein intrinsisches Verständnis für KI zu entwickeln, um die Konsequenzen eines solchen KI-Einsatzes zu erforschen und abzugrenzen. Dem zu Folge ist Nagarro das Fördern von »Digital Literacy« ein wichtiges Anliegen und Teil der Beratung!
Das Bewusstmachen von Ansprüchen und Qualitätsmerkmalen ist daher wesentlich zur Entwicklung von sinnvollem Wissensmanagement. Wir entschieden, wann KI einen guten Job macht, ob wir Anfänger- oder Expertenlevel brauchen. Einer unserer Kunden etwa, ein großes Versicherungsunternehmen, hat eine KI-Suchmaschine entwickelt, die komplexe Sachverhalte Nutzern in vereinfachter Form zugängig macht. Das gesamte Polizzen- und Vertragswissen soll hier dahinter gelegt werden, und das darin enthaltene »Wissen« wird auf natürliche Weise dem Nutzer bereitgestellt – derzeit noch in einem geschützten Bereich, und das muss auch so sein, denn die rechtliche Verantwortung ist groß. Die KI wird zuerst intern eingesetzt, unter kontrollierten Expertenbedingungen.
Generative KI kann Erkenntnisse aus bereitgestellten Informationen herausarbeiten und Inhalte erschaffen, indem sie immer neue Verknüpfungen herstellt. Damit liefert Generative AI eine Form von Kreativität, die der menschlichen nahekommt. Aus erlerntem »Wissen« wird Neues synthetisiert. Und auch der Zufall (man könnte es aber auch »Geistesblitz« nennen) spielt dabei eine Rolle. In ChatGPT bekommen wir je nach »Temperature«-Parameter eher unvorhersehbare oder zuverlässige Ergebnisse in einem Mix aus Wissen, Training und Randomisierung. Allerdings existiert KI nicht in einem Vakuum – nicht einmal vor sich selbst. In der Content-Generierung zeigt sich gerade ein erster zyklischer Effekt. Je mehr digitale Inhalte KI-generiert sind, desto weniger sind diese Inhalte für das Training von KI geeignet. Wenn schließlich KI sich nur mehr selbst trainiert, sinkt die Qualität und es kommt zum »Model Collapse«, einer Form von Degenerierung. Ein weiterer Faktor könnte in absehbarer Zeit zum Flaschenhals werden: Die nötige Skalierung von Daten und Rechenleistung – wir werden sehen, wo unsere Kapazitäten ihr Plateau erreichen. Es werden jedenfalls in den nächsten Jahren unzählige Milliarden in den Ausbau der Infrastruktur für KI investiert. Der nächste große Sprung wird 2028–2030 erwartet. Es deutet insgesamt nichts darauf hin, dass wir Menschen uns so bald aus der Wissensarbeit komplett zurückziehen – ganz im Gegenteil! – wir empfehlen Wissen, Intuition, Kommunikation und Innovation individuell zu fördern! Die Möglichkeiten steigen, aber der Umgang muss nachhaltig und informiert passieren.
KI-Assistenten gegen die Informationsflut
Was in jedem Fall schon sehr gut funktioniert, sind logische, mathematische Wissensaufgaben wie Verkaufsprognosen, faktenbasierte Argumentationslinien sowie der natürliche Sprachgebrauch (LLM) in weitgehend unkritischen Bereichen. Wir als Menschen sind es gewohnt, Fragen zu stellen, Konversationen zu haben. Ein Sprach-Interface lässt sich gut in unseren Arbeitsalltag integrieren. Bei Nagarro arbeiten wir täglich mit unserem hauseigenen Assistenten »Ginger AI«. Sie berichtet mir beispielsweise nach einem Urlaub die wichtigsten Meeting-News, sagt mir, wann Personen wieder im Büro sind, oder erlaubt mir, mich für die nächsten für mich spannenden Events zu registrieren. Viele Anwendungen, die uns unangenehme Aufgaben abnehmen, sind erst mit KI umsetzbar, etwa die Abfrage von Verträgen oder Lizenzen und die Vereinfachung komplexer Sachverhalte. Das »Erschließen« von umfangreichen oder schwierig erfassbaren Informationen hat einen positiven Nebeneffekt: Mit Hilfe von KI treffen wir Entscheidungen informierter, und gewinnen tiefere Erkenntnisse mit weit geringerem Zeitaufwand.
Abhängig ja, aber nicht ausgeliefert
Womit ich zum letzten Aspekt komme, der Frage nach der Abhängigkeit bzw. der Angst, dass wir Menschen durch den KI-Einsatz »verblöden«. Uns allen sind die Auswüchse Navi-höriger Autofahrer in Erinnerung, die in Bäche oder auf Skipisten steuern. Ich bin der Ansicht, dass wir diese Entscheidung längst getroffen haben. Es wird immer suggeriert, dass wir mit KI wesentliche Teile unserer Fähigkeiten abgeben. Das gilt für jede beliebige Technologie. Mit KI sind (oft verführerische) Shortcuts möglich, aber sie müssen in ihrer Auswirkung überschaubar bleiben. Dann kann uns die Technologie als komplexe Wissensgesellschaft weiterbringen.
Ich bin mir sicher, wir werden noch einiges erleben, bis wir den passenden Level an Vertrauen und Innovation erreichen, mit dem wir uns wohlfühlen. Auf eine Technologie wie KI sind wir gesellschaftlich noch nicht eingestellt, weshalb wir es bei Nagarro als unsere Aufgabe sehen, dies greifbar zu machen. Mit entsprechendem Knowhow und Verantwortungsbewusstsein kann uns das gelingen.
*Thomas Steirer ist Techniker aus Leidenschaft, MSc/Dipl. Ing. mit Schwerpunkt Computational Intelligence (KI & Optimization) und hat Medieninformatik an der TU Wien studiert. Beim Digitalisierungsberater Nagarro setzt sich Thomas Steirer als CTO für den globalen Brückenschlag zwischen Technik und Menschen ein.
Be the first to comment