KI-Tools wie ChatGPT und Copilot, die auf Large Language Models basieren, werden bereits in vielen Unternehmen eingesetzt. In der Praxis erfüllen sie jedoch nicht immer die Erwartungen der Unternehmen. [...]
Large Language Models (LLM) spielen in der heutigen Informationstechnologie eine immer größere Rolle, da sie wesentliche Fortschritte in der Mensch-Maschine-Interaktion ermöglichen. LLM-basierte Werkzeuge können beispielsweise als Assistenten eingesetzt werden, um Mitarbeiter bei ihrer täglichen Arbeit zu unterstützen, sie von Routinetätigkeiten zu entlasten und sie für wichtigere Tätigkeiten freizusetzen. Im betrieblichen Einsatz zeigen sich aber auch grundsätzliche Herausforderungen. Dazu zählen nicht nur die mangelnde Anpassbarkeit an spezifische Anforderungen und Aufgaben, sondern auch hoher Ressourcenbedarf hinsichtlich Hardware und Energie. Als Alternative stehen andere Algorithmen zur Verfügung, die Probleme oft effizienter lösen. Aber auch der Datenschutz spielt eine wichtige Rolle. Der EU AI Act setzt hier explizite Grenzen, die beim Einsatz von KI-Tools berücksichtigt werden müssen. Derzeit gibt es viele Use Cases, aber nicht alle führen zum erwarteten Mehrwert für Unternehmen.
Sprachbasierte KI-Modelle für zahlreiche Anwendungen
OpenAI GPT-4, ein hochentwickeltes Sprachverarbeitungswerkzeug, hat sich als Vorreiter zum weltweit meistgenutzten KI-Sprachmodell entwickelt. Darüber hinaus bietet der KI-Markt zahlreiche weitere funktionale Werkzeuge. Claude AI beeindruckt durch empathische Interaktionen und kontextbezogene Antworten. Mistral AI hat sich mit kostengünstigen und zuverlässigen Übersetzungen, Zusammenfassungen und Stimmungsanalysen einen Namen gemacht. Bei wissenschaftlichen Arbeiten unterstützt Perplexity AI mit hoher Genauigkeit und exakten Quellenangaben. DeepL wiederum liefert präzise Übersetzungen aus unzähligen Sprachen, inklusive Funktionen für Marketing- und Social-Media-Content. Darüber hinaus werden KI-Systeme zunehmend multimediafähig. Leonardo AI beispielsweise ermöglicht die Generierung von Bildern und Videos. Aber auch Suchmaschinen wie Google Bard, Bing AI oder Perplexity AI liefern verbesserte Ergebnisse in Form von personalisierten, kontextbezogenen und oft präziseren Ergebnissen als herkömmliche Suchmaschinen.
Erwartungen vs. Realität
Der Hype um künstliche Intelligenz hat hohe Erwartungen geweckt. In der Praxis gibt es jedoch große Diskrepanzen zwischen den Erwartungen und den tatsächlichen Möglichkeiten intelligenter Tools. Ein häufiger Grund, warum der Einsatz von KI in Unternehmen scheitert, ist die Herangehensweise. Oft wird das Pferd falsch aufgezäumt, d.h. zuerst wird ein KI-Tool angeschafft und erst dann überlegt, ob und wie es in die Systemlandschaft integriert und sinnvoll eingesetzt werden kann. Richtig hingegen ist es, zuerst in einer Problem- bzw. Potenzialanalyse Use Cases zu identifizieren, zu evaluieren und erst dann die dafür geeigneten Technologien auszuwählen. Manchmal sind einfachere KI-Tools sinnvoller, da LLMs zwar sehr leistungsfähig, aber mitunter relativ teuer oder ressourcenintensiv im Betrieb sind.
Viele LLMs sind in der Lage, hervorragende Texte zu generieren, deren Wahrheitsgehalt für den Laien aber nur schwer zu überprüfen ist. Oft ist daher eine zusätzliche Prüfung auf fachliche, rechtliche und ethisch-moralische Korrektheit notwendig. Ähnlich verhält es sich, wenn man LLMs als Ersatz für Google oder ein Recherchetool verwendet und als Ergebnis mehr oder weniger korrekte Antworten erhält. Soll beispielsweise ein Chatbot für HR-Zwecke eingesetzt werden, muss sichergestellt sein, dass die Antworten rechtlich und ethisch korrekt sind. LLMs haben oftmals keinen Zugang auf unternehmenseigene Daten und sind daher von ihren Einsatzmöglichkeiten im Business-Kontext eingeschränkt. Denn um wirklichen Mehrwert zu erzielen, ist grundsätzlich eine gute Integration von LLM-Tools in die System- und Datenwelt des Unternehmens notwendig. Bei der Integration von KI in die eigene Datenwelt von Unternehmen helfen beispielsweise RAG-Architekturen (Retrieval Augmented Generation). Dies ist eine bewährte Methode, um lokale Daten mit LLMs zu verknüpfen. Um die Datensicherheit zu gewährleisten, bietet es sich an, LLMs als Open Source Software im eigenen Rechenzentrum zu hosten.
Vielfältige Einsatzszenarien
LLM-Werkzeuge können vor allem in Branchen mit viel Text und sich wiederholenden Aufgaben gewinnbringend eingesetzt werden. Insbesondere bei der Bearbeitung sich wiederholender Inhalte können sie wertvolle Vorteile bieten. So lassen sich KI-Anwendungen als intelligente Assistenten zur automatischen Beantwortung wiederkehrender, inhaltlich ähnlicher Fragen einsetzen. Oder sie können umfangreiche Ausschreibungsunterlagen prüfen, mit ähnlichen Dokumenten vergleichen, klassifizieren und zusammenfassen. Auf Unternehmenswebsites ermöglichen KI-gestützte Suchfunktionen oder Chatbots schnelle Antworten bei anwendungsspezifischen Anfragen und einen Hinweis zu den passenden Produkten. KI-Anwendungen können auch Prozesse im Einkauf effizienter gestalten, etwa durch das automatisierte Erstellen, Prüfen, Vergleichen und Kategorisieren von Angeboten.
Aber auch in der Softwareentwicklung macht die LLM-Technologie Sinn: In Entwicklungstools integrierte Coding-Assistenten beschleunigen den Entwicklungsprozess. LLMs können aber auch Programmcode erklären oder etwa bei der Modernisierung von Software helfen, Aufwand einzusparen. Auch im Support sind LLM-basierte Anwendungen sinnvoll, da sie die Serviceabteilung entlasten und der Kunde eine sofortige Antwort erhält. Besonders hilfreich sind Chatbots, die die Informationen aus Handbüchern, Arbeitsanweisungen oder Dokumentationen bedarfsgerecht in verschiedenen Sprachen zur Verfügung stellen. Die Grenzen des Einsatzes von LLMs liegen dort, wo sachlich, rechtlich oder moralisch-ethisch korrekte Aussagen erforderlich sind, wie bei der automatischen Bewertung von Lebensläufen im Recruiting oder bei Rechtsfragen.
Generative KI verändert die Arbeitswelt
Generative KI, die in der Lage ist, neue Inhalte und Ideen zu generieren, gewinnt zunehmend an Bedeutung. KI-basierte Assistenzfunktionen unterstützen und vereinfachen den Arbeitsalltag. Sie übersetzen, protokollieren, verfassen Texte und ermöglichen situatives Lernen. Die Entwicklung dieser Technologie schafft aber auch deutlich mehr Chancen, da die Beschäftigten ihre Arbeit effizienter erledigen, schneller zu Ergebnissen kommen und sich auf ihre Kernaufgaben konzentrieren können. Gleichzeitig werden sich bestimmte Berufsgruppen wie z.B. Übersetzer deutlich verändern (müssen). Fakt ist, dass KI-Anwendungen schnell besser und praxistauglicher werden und ein großes Potenzial eröffnen. Gebremst werden diese Entwicklungen durch Datenschutzaspekte, aber auch durch die Skepsis einiger Nutzer gegenüber technologischen Neuerungen.
Chancen für echten Mehrwert
Betrachtet man die dynamische Entwicklung von LLMs und verwandten Technologien, wird klar, dass ein Unternehmen nicht umhinkommt, sich mit dem Einsatz von künstlicher Intelligenz zu beschäftigen. In jedem Fall ist es sinnvoll, den Mitarbeitenden im Unternehmen den Zugang zu LLMs zu ermöglichen. Dabei ist abzuwägen, ob relativ teure, lizenzierte Versionen, kostenlose Tools oder lokal gehostete Open-Source-Lösungen eingesetzt werden. Die professionelle Beratung zu Möglichkeiten, Chancen aber auch Grenzen von intelligenten Tools und die Integration von KI in die System- und Datenwelt des Unternehmens sind entscheidend für den Erfolg und Mehrwert. Hier ist es ratsam, einen erfahrenen Digitalisierungspartner mit umfassender KI-Expertise an Bord zu holen. Das Thema wird sich in jedem Fall rasant weiterentwickeln und zukünftig in viele Systeme und Lösungen integriert werden. Richtig eingesetzt, bieten diese Technologien für Unternehmen große Chancen, wirklichen Business-Mehrwert zu erzielen.
*Gerhard Schuster ist Executive Advisor, Mattias Puhr ist Machine Learning Consultant bei DCCS.
Be the first to comment