„Aktuelle KI ist vor allem ein Assistenzsystem“

Mit dem Aufkommen der Large Language Models hat sich der Umgang mit KI grundlegend geändert. Markus Haller, CEO & CTO von Asseco Solutions, über die Möglichkeiten, Herausforderungen und Grenzen einer Technologie, die angetreten ist, Menschen produktiver zu machen, anstatt sie zu ersetzen. [...]

Markus Haller ist CEO & CTO von Asseco Solutions (c) Asseco Solutions
Markus Haller ist CEO & CTO von Asseco Solutions (c) Asseco Solutions

Welche Technik steht aktuell im Bereich künstliche Intelligenz zur Verfügung und was leistet sie?

Bis vor gut anderthalb Jahren sah die Antwort auf diese Frage noch völlig anders aus. Damals ermöglichte es KI-Technologie in erster Linie, die Bearbeitung einer zuvor klar umgrenzten Aufgabe zu automatisieren. Gerade für komplexe Bereiche war der Nutzen sehr hoch, doch das zuvor erforderliche Training der KI war umfassend und zeitintensiv. Mit dem Aufkommen der Large Language Models hat sich dies nun grundlegend geändert: Generative KI verfügt über alles zugängliche Wissen in beliebigen Bereichen. Demnach ist ihr Einsatzgebiet nicht auf einen Spezialbereich begrenzt, sondern vollkommen offen. Eine solche Entwicklung ist bislang einmalig und aus meiner Sicht ein erster Schritt hin zu einer „echten“, starken künstlichen Intelligenz.

Kann KI helfen, den Fachkräftemangel abzumildern, da weniger IT-Fachpersonal benötigt wird?

Ganz klar: Ja. Gerade die heutige LLM-Technologie birgt ein bislang ungekanntes Automatisierungspotenzial, da sie die Interaktion zwischen Mensch und Maschine revolutioniert. Sie ermöglicht es uns, auf eine viel menschenähnlichere – und damit intuitivere – Art und Weise mit Maschinen oder Software zu interagieren. Dadurch lassen sich Prozesse auf bislang unerreichte Weise optimieren. Und wenn die Mitarbeiter deutlich effizienter arbeiten und Aufgaben in kürzerer Zeit erledigen können, ist das ein zentraler Vorteil, um dem Fachkräftemangel entgegen zu wirken.

Wo ist es sinnvoll, KI einzusetzen und wo eher nicht?

Pauschal lässt sich diese Frage nicht beantworten, da Optimierungspotenziale sehr stark vom konkreten Unternehmen und seiner Arbeitsweise abhängen. Das Nutzenspektrum moderner Large Language Models ist jedoch überaus hoch. Ich würde daher jedem Unternehmen empfehlen, sich so bald wie möglich Gedanken zu machen, in welchen Bereichen der Einsatz von generativer KI ganz konkret Vorteile mit sich bringen könnte. Wer es schafft, die Effizienz seiner Geschäftsprozesse insgesamt zu erhöhen, erhält einen klaren Wettbewerbsvorteil gegenüber seinen Mitbewerbern.

Wie können Datenschieflagen (Bias) und Halluzinieren der KI vermieden werden?

Das ist in der Praxis natürlich ein großes Thema und eine sehr häufig gestellte Frage unserer Kunden und Interessenten. Tatsächlich gibt es verschiedene Möglichkeiten, das Risiko für solche Fallstricke deutlich zu reduzieren. In klassischen KI-Szenarien ist vor allem ein sauberer, ausgewogener Datensatz entscheidend, der die Realität im kleinen Maßstab nachbildet. Auf diese Weise lässt sich verhindern, dass die KI zum Beispiel Ausnahmen häufiger erwartet, als sie tatsächlich auftreten. In der neuen LLM-Welt hat sich unter anderem die Technik des sogenannten Groundings als hilfreich erwiesen, Halluzinationen deutlich zu verringern. Dabei werden dem Sprachmodell bereits in der Anfrage die Daten mitgegeben, auf die es sich in seiner Antwort hauptsächlich stützen soll. Das können beispielsweise unternehmensspezifische Daten sein, die dann dafür sorgen, dass die Antwort tatsächlich auf den konkreten Einzelfall zugeschnitten ist.

Wie sieht es in Sachen Ethik und KI aus? Und welche Rolle spielt dabei der Mensch?

Ein zentraler Punkt, den ich hier gerne betonen möchte, ist folgender: Die aktuelle KI-Technologie ist in allererster Linie ein Assistenzsystem, das Menschen in ihrer täglichen Arbeit unterstützt. Es bedarf stets einer konkreten Handlungsaufforderung oder Aufgabenstellung durch den Menschen, etwa in Form eines Prompts. Generative KI handelt nicht autark – und das ist auch gar nicht das Ziel.

Das Ziel besteht darin, den Grad der Produktivität von menschlicher Arbeit zu erhöhen, und dazu bedarf es immer eines Menschen. An diesem Prinzip müssen wir auch für zukünftige Weiterentwicklungen der Technologie festhalten und die Grenze dort ziehen, wo Technik den Mensch zu großen Teilen ersetzt oder gar überflüssig macht.

Wie wird sich die KI-Technologie weiterentwickeln? Welche KI-Szenarien können wir in Zukunft erwarten?

Die bisherige Entwicklung im Bereich der generativen KI hat sich sehr rasant vollzogen. Und gemessen an den Milliardensummen, die jährlich in diesen Bereich investiert werden, bin ich überzeugt, dass diese Dynamik auch für die absehbare Zukunft erhalten bleiben wird.

Die neue Stufe der Interaktion zwischen Mensch und Maschine wird gerade im geschäftlichen Kontext die Art und Weise des täglichen Arbeitens schon sehr bald stark verändern. Ich denke da etwa an einen Mitarbeiter, der unterwegs mit dem ERP-System wie mit einem Kollegen interagiert und sich von diesem durch die Bearbeitung des passenden ERP-Prozesses führen lässt, um etwa Aufträge anzulegen, Material zu kommissionieren oder Serviceanfragen voranzutreiben.

Die KI würde bei Bedarf aktiv auf den Mitarbeiter zurückkommen, sollten Informationen fehlen oder Rückfragen geklärt werden müssen.

Können sich Unternehmen schon heute auf diese KI-Zukunft vorbereiten? Wenn ja, wie?

Die Grundvoraussetzung für ein solches Szenario besteht darin, dass die generative KI ein Technologieumfeld antrifft, in dem sie sich zurechtfindet. Für ERP-Systeme bedeutet dies beispielsweise, dass sie von ihrem bisherigen datenzentrierten Ansatz abrücken und die konkreten Prozesse des Tagesgeschäfts in den Fokus stellen müssen. Sind letztere im System definiert, kann sich die KI daran orientieren und findet sich im Prozessdschungel zurecht.

Unternehmen können hier schon heute Vorarbeit leisten, indem sie ihre Prozesse sauber dokumentieren und in entsprechend digitaler Form in einem BPMN-System (Business Process Model and Notation) wie zum Beispiel Camunda ablegen. Damit erhalten LLM-Systeme die Möglichkeit, die Prozesse zu verstehen und zu unterstützen. Es entsteht eine technische Basis, mit der nicht nur der Mensch, sondern auch die KI optimal arbeiten kann.


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

News

Startschuss für neues Studium „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln

Mit einem fortschrittlichen Konzept und praxisnaher Ausrichtung ist der neue Bachelor-Studiengang „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln der Fachhochschule Wiener Neustadt erfolgreich gestartet. Unter der Leitung von Dominik Hölbling erwartet die Studierenden eine Ausbildung mit Schwerpunkt auf moderne Softwaretechnologien und innovative Digitalisierungslösungen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*