KI – Wegweisende Technologie ist kein Alleskönner

Mindbreeze verdeutlicht Potenziale und Limitationen von großen Sprachmodellen, die als wichtige Deep-Learning-Modelle im Bereich der generativen KI im Einsatz sind. [...]

Foto: MohamedHassan/Pixabay

Large Language Models (LLMs) sind voll im Trend. Ob privat oder in Unternehmen, auf LLMs basierende Chatbots wie beispielsweise ChatGPT von OpenAI generieren mit Deep-Learning-Modellen Texte in menschenähnlicher Weise. Auf Basis von massiven Mengen von Textdaten trainiert, können sie so auf viele Fragen Antworten liefern und Befehle ausführen.  

Unternehmensentscheider prüfen momentan, welche Vorteile diese Sprachmodelle für ihre Organisation haben und wie man sie so schnell wie möglich implementieren kann. Konfrontiert sind sie dabei jedoch mit einer Lösungslandschaft, die teils ungeheure Use Cases verspricht und die LLM-basierte Tools als “Alleskönner” betiteln.  

Für ein besseres Verständnis erläutert Mindbreeze angewandte KI und Wissensmanagement, wo die Technik ihre Grenzen hat und in welcher Nutzungsweise sie überhaupt im Geschäftskontext Sinn ergibt. 

Ausgangsbedingungen und Einsatzzweck abwägen 

Sinnhaft ist der Einsatz eines LLM-basierten Tools nur dann, wenn die digitale Transformation eines Unternehmens auch eine Infrastruktur für die vernünftige Implementierung bereitstellt. Auch müssen die Einsatzbereiche der Technologie im Unternehmen festgelegt werden, in denen sie einen echten Mehrwert schafft – beispielsweise in der Kundenkommunikation oder im Vertrieb.  

Die folgenden vier Punkte zeigen, wie eine zweckmäßige Implementierung von LLMs aussieht und für welche Aufgaben sie im Unternehmen eher ungeeignet sind. 

1. Automatisierte Verarbeitung großer Datenmengen und Texte 

LLMs verfügen über die Fähigkeit, große Mengen an Textdaten schnell und effizient zu verarbeiten. Damit punkten sie als wertvolles Werkzeug für Aufgaben wie das Textmining und die Datenanalyse. Zu den typischen Einsatzfeldern gehören neben der Durchführung von Datenanalysen, die Erstellung von Berichten und die Beantwortung von Kundenanfragen.

Diese Art der Automatisierung vermeidet menschliche Fehler und führt potenziell zu erheblichen Kosteneinsparungen. Wenn Unternehmen ein LLM zur Automatisierung dieser Aufgaben nutzen, lassen sich aufwendige manuelle Arbeitsschritte einsparen. 

2. Maßgeschneidert für konkrete Einsatzszenarien 

LLMs überzeugen durch die Möglichkeit, sie breit in den unterschiedlichsten Geschäftsbereichen mit spezifischen Geschäftsanforderungen einzusetzen. Eine zusätzliche Antwortschärfung kann beispielsweise mit RAG (Retrieval-Augmented-Generation) erreicht werden.

RAG bietet eine Möglichkeit, die Leistung eines LLMs durch gezielte Informationen zu verbessern, ohne dabei das zugrunde liegende Modell selbst zu verändern. Je detaillierter und geschärfter das LLM, desto besser die generierte Antwort und damit auch die Relevanz für Anwender.

Öffentliche Modelle wie ChatGPT, Microsoft Copilot oder Google Bard, haben meist keinen Zugang zu internen Unternehmensdaten, die Anwender beispielsweise zum Erstellen eines Angebots brauchen.  

3. Wahrscheinlichkeiten sind keine Wahrheiten 

Der Output eines LLMs erfolgt auf Basis von Wahrscheinlichkeiten, nicht unter Berücksichtigung des Wahrheitsgehalts. Wenn es nämlich lediglich berechnet, welches Wort wahrscheinlich als Nächstes folgt, kann es zu unwahren Aussagen kommen, die man auch als „Halluzination“ bezeichnet. Diese können teilweise verblüffend wahr in ihrer Formulierung klingen, sodass ein Fehler nicht beim ersten Hinsehen entdeckt werden kann.

Unternehmen können das einschränken, indem sie dem Sprachmodell einen Kontext für die Antwortfindung bieten, wie beispielsweise eine Auswahl an Textdokumenten. Generieren LLMs nur Antworten aus ausgewählten Daten, ist das Risiko für Halluzinationen bereits reduziert.  

4. Kein Mehrwert ohne geeignete Datenbasis 

Die Versuchung ist groß, LLMs sofort einzusetzen, blickt man auf die Vorteile, die LLMs mit sich bringen.  Allerdings verfehlen selbst die besten KI-gesteuerten Tools ohne geeignete Datenbasis ihren Zweck.

Hintergrund: Die Fähigkeit einer KI richtige Antworten zu geben, hängt von der Qualität der Daten ab, aus denen sie Informationen bezieht. Hinzu kommt die Frage nach der erforderlichen IT-Infrastruktur, um ein LLM effektiv zu nutzen.

Um also nachhaltig die Weichen für eine effiziente Nutzung zu stellen, ist es wichtig Innovationen im Blick zu behalten und die Digitalisierung grundsätzlich im Unternehmen voranzutreiben.  

Dass LLMs ihren Anwendern in vielen Einsatzszenarien schon heute großen Mehrwert bieten, zeigt die Praxis. Dennoch belegen die geschilderten Punkte, warum es darauf ankommt, die Grenzen der Technologie vor der Nutzung im Arbeitsalltag genau zu kennen.

Daher ist es für Unternehmen von Vorteil, vor dem Einsatz generativer Sprachmodelle erfahrene Partner an Bord zu holen, die sie bei der Implementierung beraten und unterstützen.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*