KI – Wegweisende Technologie ist kein Alleskönner

Mindbreeze verdeutlicht Potenziale und Limitationen von großen Sprachmodellen, die als wichtige Deep-Learning-Modelle im Bereich der generativen KI im Einsatz sind. [...]

Foto: MohamedHassan/Pixabay

Large Language Models (LLMs) sind voll im Trend. Ob privat oder in Unternehmen, auf LLMs basierende Chatbots wie beispielsweise ChatGPT von OpenAI generieren mit Deep-Learning-Modellen Texte in menschenähnlicher Weise. Auf Basis von massiven Mengen von Textdaten trainiert, können sie so auf viele Fragen Antworten liefern und Befehle ausführen.  

Unternehmensentscheider prüfen momentan, welche Vorteile diese Sprachmodelle für ihre Organisation haben und wie man sie so schnell wie möglich implementieren kann. Konfrontiert sind sie dabei jedoch mit einer Lösungslandschaft, die teils ungeheure Use Cases verspricht und die LLM-basierte Tools als “Alleskönner” betiteln.  

Für ein besseres Verständnis erläutert Mindbreeze angewandte KI und Wissensmanagement, wo die Technik ihre Grenzen hat und in welcher Nutzungsweise sie überhaupt im Geschäftskontext Sinn ergibt. 

Ausgangsbedingungen und Einsatzzweck abwägen 

Sinnhaft ist der Einsatz eines LLM-basierten Tools nur dann, wenn die digitale Transformation eines Unternehmens auch eine Infrastruktur für die vernünftige Implementierung bereitstellt. Auch müssen die Einsatzbereiche der Technologie im Unternehmen festgelegt werden, in denen sie einen echten Mehrwert schafft – beispielsweise in der Kundenkommunikation oder im Vertrieb.  

Die folgenden vier Punkte zeigen, wie eine zweckmäßige Implementierung von LLMs aussieht und für welche Aufgaben sie im Unternehmen eher ungeeignet sind. 

1. Automatisierte Verarbeitung großer Datenmengen und Texte 

LLMs verfügen über die Fähigkeit, große Mengen an Textdaten schnell und effizient zu verarbeiten. Damit punkten sie als wertvolles Werkzeug für Aufgaben wie das Textmining und die Datenanalyse. Zu den typischen Einsatzfeldern gehören neben der Durchführung von Datenanalysen, die Erstellung von Berichten und die Beantwortung von Kundenanfragen.

Diese Art der Automatisierung vermeidet menschliche Fehler und führt potenziell zu erheblichen Kosteneinsparungen. Wenn Unternehmen ein LLM zur Automatisierung dieser Aufgaben nutzen, lassen sich aufwendige manuelle Arbeitsschritte einsparen. 

2. Maßgeschneidert für konkrete Einsatzszenarien 

LLMs überzeugen durch die Möglichkeit, sie breit in den unterschiedlichsten Geschäftsbereichen mit spezifischen Geschäftsanforderungen einzusetzen. Eine zusätzliche Antwortschärfung kann beispielsweise mit RAG (Retrieval-Augmented-Generation) erreicht werden.

RAG bietet eine Möglichkeit, die Leistung eines LLMs durch gezielte Informationen zu verbessern, ohne dabei das zugrunde liegende Modell selbst zu verändern. Je detaillierter und geschärfter das LLM, desto besser die generierte Antwort und damit auch die Relevanz für Anwender.

Öffentliche Modelle wie ChatGPT, Microsoft Copilot oder Google Bard, haben meist keinen Zugang zu internen Unternehmensdaten, die Anwender beispielsweise zum Erstellen eines Angebots brauchen.  

3. Wahrscheinlichkeiten sind keine Wahrheiten 

Der Output eines LLMs erfolgt auf Basis von Wahrscheinlichkeiten, nicht unter Berücksichtigung des Wahrheitsgehalts. Wenn es nämlich lediglich berechnet, welches Wort wahrscheinlich als Nächstes folgt, kann es zu unwahren Aussagen kommen, die man auch als „Halluzination“ bezeichnet. Diese können teilweise verblüffend wahr in ihrer Formulierung klingen, sodass ein Fehler nicht beim ersten Hinsehen entdeckt werden kann.

Unternehmen können das einschränken, indem sie dem Sprachmodell einen Kontext für die Antwortfindung bieten, wie beispielsweise eine Auswahl an Textdokumenten. Generieren LLMs nur Antworten aus ausgewählten Daten, ist das Risiko für Halluzinationen bereits reduziert.  

4. Kein Mehrwert ohne geeignete Datenbasis 

Die Versuchung ist groß, LLMs sofort einzusetzen, blickt man auf die Vorteile, die LLMs mit sich bringen.  Allerdings verfehlen selbst die besten KI-gesteuerten Tools ohne geeignete Datenbasis ihren Zweck.

Hintergrund: Die Fähigkeit einer KI richtige Antworten zu geben, hängt von der Qualität der Daten ab, aus denen sie Informationen bezieht. Hinzu kommt die Frage nach der erforderlichen IT-Infrastruktur, um ein LLM effektiv zu nutzen.

Um also nachhaltig die Weichen für eine effiziente Nutzung zu stellen, ist es wichtig Innovationen im Blick zu behalten und die Digitalisierung grundsätzlich im Unternehmen voranzutreiben.  

Dass LLMs ihren Anwendern in vielen Einsatzszenarien schon heute großen Mehrwert bieten, zeigt die Praxis. Dennoch belegen die geschilderten Punkte, warum es darauf ankommt, die Grenzen der Technologie vor der Nutzung im Arbeitsalltag genau zu kennen.

Daher ist es für Unternehmen von Vorteil, vor dem Einsatz generativer Sprachmodelle erfahrene Partner an Bord zu holen, die sie bei der Implementierung beraten und unterstützen.


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*