Kunden erwarten heute, dass sie alle relevanten Informationen online finden. Von den Öffnungszeiten und der Adresse über Jobangebote bis hin zu Produktportfolios und Services wird alles gesucht. [...]
Sind diese Informationen nicht zu finden, sind Kunden in der Regel enttäuscht. Wenn sie dann den Kundenservice kontaktieren müssen, um ihre Fragen zu klären, kostet das Zeit – und das Unternehmen Ressourcen. Gleichzeitig kann sich dieser Umweg auch auf die Kaufabsicht auswirken – beispielsweise, wenn ein Wettbewerber das Informationsbedürfnis schneller oder direkter befriedigen kann und der Kunde sich daraufhin für diesen entscheidet.
Eine Studie von Yext aus dem Jahr 2023 zeigt, dass Kunden erwarten, Informationen direkt online zu finden und Probleme eigenständig zu lösen, anstatt den Kundenservice zu kontaktieren – neun von zehn der Befragten in Deutschland gaben an, dass dies ihnen wichtig ist.
Das Wissen, das man Usern an die Hand geben kann, um diesem Anspruch gerecht zu werden, ist bereits vorhanden. Unternehmen verfügen über einen enormen Fundus an Informationen. Nur sind diese meist nicht zentral abgelegt und durchsuchbar, sondern befinden sich in Silos – also in den einzelnen Abteilungen, auf Laufwerken oder verschachtelten Ordnern in der Cloud. Dort nutzen sie jedoch nur wenigen Personen.
IT-Entscheider sitzen am richtigen Hebel, um die digitale Transformation auch bei der Datennutzung voranzutreiben und dafür zu sorgen, dass Mitarbeitende und Kunden künftig schnell und einfach auf relevante Informationen zugreifen können.
Dazu eignen sich Sprachmodelle wie ChatGPT oder Bart. Diese künstlichen Intelligenzen können dabei helfen, das gesammelte Wissen eines Unternehmens mit Hilfe von Large Language Models (LLM) „auffindbar“ zu machen. Anstatt eine Suchmaschine mit Schlagworten zu füttern, können Nutzer ihre Fragen in natürlicher Sprache formulieren und erhalten passende, individuelle Antworten aus den Daten des Unternehmens.
Dies kann sowohl für externe User als auch für interne Mitarbeitende nützlich sein, die schnell und unkompliziert auf das Wissen des Unternehmens zugreifen wollen. Damit das funktioniert, müssen Sprachmodelle mit großen Mengen an Textdaten trainiert werden, um Muster und Zusammenhänge zu erkennen und auf neue Eingaben zu reagieren.
Der richtige Ansatz
Bevor Sprachmodelle zum Einsatz kommen können, müssen die entsprechenden Voraussetzungen geschaffen werden. Zunächst müssen die unternehmenseigenen Daten strukturiert, qualitätsgesichert und aktuell gehalten werden, um sie für Sprachmodelle nutzbar zu machen. Dabei ist folgende Frage wichtig: Welche spezifischen Anforderungen und Ziele hat das Unternehmen?
Ist dies geklärt, muss das Sprachmodell mit zusätzlichen Daten aus dem Unternehmenskontext trainiert beziehungsweise verfeinert werden, um die Genauigkeit und Relevanz der Antworten zu optimieren. Schließlich gilt es einige Grundsätze zu beachten:
- Ohne Menschen geht es nicht:
- Es muss feste Verantwortliche geben, die das Tool und die KI kontrollieren und steuern. Denn die KI ist kein Selbstläufer und wird nicht richtig funktionieren, wenn sie nicht gepflegt wird. Die Antworten, die sie dann gibt, können fehlerhaft sein.
- Unvollständige Daten sind ein No-Go:
- Ein Tool wie ein Sprachmodell kann aus unvollständigen Informationen keine angemessenen Schlüsse ziehen. Es ist essenziell, dass die KI mit großen, relevanten Datenmengen trainiert wird und dass diese Daten umfassend und vollständig sind.
- Halluzinationen vermeiden:
- Liegen nicht ausreichend Informationen zur Beantwortung einer Frage vor, wird die KI trotzdem eine Auskunft erteilen – jedoch keine korrekte. Aufgrund ihrer Wahrscheinlichkeitsprozesse wird sie versuchen, sich eine Antwort zu erschließen – also zu erfinden. Für den Nutzer sind diese „Halluzinationen“ beziehungsweise Fehlinformationen jedoch nicht von richtigen Antworten zu unterscheiden. Dass dies ein häufiges Problem ist, zeigen auch die Zahlen: Teilweise dichtet die KI bis zu 20 Prozent hinzu. Diese Misere lässt sich durch vollständige Daten und gutes Training der KI vermeiden.
- Keine Stand-Alone-Lösung:
- Sprachmodelle allein nützen wenig. Sie müssen sinnvoll in eine umfassende und gut ausgebaute Infrastruktur eingebettet werden. Gleichzeitig sollten die Verantwortlichen darauf achten, dass Compliance, Datenschutz und vor allem Fehlerresistenz gewährleistet sind.
Um das Wissen in Unternehmen durch den Einsatz von LLM durchsuchbar zu machen, empfiehlt sich ein Ansatz über drei Ebenen:
1. Ordnung schaffen als Grundlage für das Informationsmanagement
Auf der Datenebene oder auch der „konzeptionellen Ebene“ müssen Daten zunächst gesammelt, organisiert und strukturiert werden, um sie nutzen zu können. Dazu gehört grundsätzlich alles, was im Unternehmen an Daten vorhanden ist: Alle strukturierten, semistrukturierten und unstrukturierten Daten, interne Dokumente, technische Spezifikationen und Handbücher sowie FAQs und auch Kundensupport-Tickets, in denen gestellte Fragen bereits beantwortet wurden.
Um diese Informationen optimal nutzen zu können, müssen sie auch entsprechend gespeichert werden. Unternehmen wie Yext nutzen hierfür beispielsweise einen Knowledge Graph oder ein Headless CMS als zentrale Datenquelle. Damit können Unternehmen ihre Daten übersichtlich strukturieren und für Sprachmodelle leicht zugänglich machen.
Je besser sie strukturiert sind, desto besser funktionieren Sprachmodelle: Ihre Qualität hängt maßgeblich von den zugrundeliegenden Informationen ab. Ein Knowledge Graph dient als Datenspeicher, der für künstliche Intelligenz entwickelt wurde. In diesem Speichermodell werden die Informationen für Sprachsuchen, Chatbots und andere KI-Anwendungen optimiert.
Das ist wichtig, denn Kunden und Mitarbeitende suchen nicht nur an einem Kontaktpunkt nach Antworten, sondern an vielen – von Google und der Unternehmenswebsite bis hin zu Alexa, Siri und Co. Für das Unternehmen ist es entscheidend, dass die Antworten über alle Kontaktpunkte hinweg von hoher Qualität und vor allem korrekt sind.
2. Customer Journey managen und passende Inhalte erstellen
In der Modellebene der internen Struktur – auch die semantische Ebene genannt – wird das Sprachmodell angelegt („Large Language Model Layer“) und Zusammenhänge hergestellt. Deshalb sollten hier auch verschiedene Personas und Zielgruppen definiert werden, die für das Unternehmen und die gesamte interne und externe Kommunikation relevant sind. Anhand dieser wird die Customer Journey verfolgt und das gesammelte Wissen aus der ersten Ebene für passende Inhalte und individuelle Antworten genutzt.
Unabhängig davon, wer Informationen sucht – jeder erhält maßgeschneiderte, individuelle und relevante Antworten. Dabei darf der Mensch nicht vergessen werden. Der oder die Verantwortlichen müssen das Sprachmodell regelmäßig kontrollieren und sicherstellen, dass alle zugrundeliegenden Daten sowie die Parameter, mit denen die KI arbeitet, aktuell sind. Weiterhin müssen sie neue Daten einpflegen sowie die Ergebnisse stichprobenartig überprüfen. Denn um eine gleichbleibend gute Qualität der Antworten zu gewährleisten, muss das Modell ständig verbessert und aktualisiert werden.
3. Inhalte für eigene und fremde Kanäle ausgeben und anpassen
Die erstellten Inhalte werden auf der Anwendungsebene – oder syntaktischen Ebene – für verschiedene Kanäle und Zielgruppen aufbereitet („Multi-Channel Experience Layer“). Bei den Anwendungen handelt es sich um Funktionen wie Suche, Textgenerator, Zusammenfassungen oder das Umschreiben von Texten. Diese Multi-Channel-Experience-Schicht ermöglicht es, KI-generierte Inhalte sowohl für interne als auch für externe Kanäle sichtbar zu machen.
Diese Ebene bestimmt, wie das Wissen präsentiert und verstanden wird. Je nachdem, wie das Wissen auf der syntaktischen Ebene dargestellt wird, kann es mehr oder weniger klar, verständlich, überzeugend oder ansprechend sein. Zum Beispiel kann ein Text, der das Wissen über ein Produkt enthält, in verschiedenen Formaten geschrieben sein, beispielsweise als Beschreibung, Bewertung oder als Anleitung. So können User über verschiedene Kommunikationskanäle wie Websites, Chatbots, Sprachassistenten oder E-Mails auf das Unternehmenswissen zugreifen und konsistente Informationen erhalten.
Bei der Implementierung von Sprachmodellen ist zu beachten, dass diese in der Lage sein müssen, die Form und Struktur des Wissens auf syntaktischer Ebene zu analysieren und zu generieren. Das bedeutet, dass das Sprachmodell in der Lage sein muss, verschiedene Formate zu erkennen, zu unterscheiden und zu verwenden. Darüber hinaus muss die KI in der Lage sein, das Wissen auf der syntaktischen Ebene mit dem Wissen auf den anderen Ebenen zu verknüpfen und zu vergleichen. Das erfordert unter anderem eine vielfältige Datenmenge und ein qualitativ hochwertiges Training.
Richtig aufgesetzt und gepflegt, können Sprachmodelle das Wissen eines Unternehmens nutzbar machen, die Kunden- und Mitarbeiterzufriedenheit erhöhen sowie die Kosten für den Support senken. Dazu ist es zum einen notwendig, ihre Struktur sauber aufzusetzen und die Ebenen untereinander zu verknüpfen. Zum anderen erfordern sie auch eine sorgfältige Planung und Umsetzung sowie kontinuierliches Training, um ihr volles Potential zu entfalten.
*Björn Lorenzen ist seit Ende 2020 Regional Vice President EMEA Central bei Yext und verantwortet in dieser Position unter anderem das strategische Neugeschäft des Unternehmens. Zuvor war der gelernte Informatikkaufmann sieben Jahre bei Facelift, einem Social-Media-Management-Anbieter, beschäftigt – zuletzt als Head of Enterprise Sales. Zu seinen weiteren Stationen gehören Actito und die Mail Select AG.
Be the first to comment