Durch diese 5 Faktoren lernen Chatbots sprechen

Der Einsatz von Sprachassistenten in der Kundenkommunikation wird immer beliebter. Dies muss passieren, damit ein Chatbot sprechen kann. [...]

Wie in den meisten Fällen, wenn eine neue Technologie in ein bestehendes Business-Setup integriert wird, ist auch die Implementierung eines Chatbots kein isolierter, unabhängiger Prozess (c) pixabay.com

Um sich im Kundenservice vom Wettbewerb zu differenzieren, setzen immer mehr Unternehmen – sowohl aus dem B2C- als auch dem B2B-Umfeld – auf Chat- und Voicebots. Damit die virtuellen Assistenten ihren Zweck erfüllen und eine zentrale Rolle in der Kommunikation einnehmen sowie Kundenwünsche wie Self-Service-Lösungen, 24-Stunden-Rundum-Service und kurze Reaktionszeiten erfüllen können, sind fünf wesentliche Arbeitsschritte erforderlich:

1. Vorbereitung ist alles

Wie in den meisten Fällen, wenn eine neue Technologie in ein bestehendes Business-Setup integriert wird, ist auch die Implementierung eines Chatbots kein isolierter, unabhängiger Prozess. Dieser mag sich zwar je nach Unternehmen und Einsatzgebiet des virtuellen Assistenten unterscheiden. Die Grundbedürfnisse des Bots, damit dieser letztendlich auch wie gewünscht kommunizieren kann, sind jedoch immer gleich. Um Chatbots an die bestehenden Webservices des Unternehmens anzuschließen, kommen zum Beispiel Webhooks zum Einsatz, ein nicht-standardisiertes Verfahren zur Kommunikation von Servern.

Unternehmen nutzen diese Schnittstellen, um den Datenaustausch zwischen Bots und ihren Systemen wie CRM, ERP oder anderen Gateways zu ermöglichen. Daneben benötigen Chatbots einen Service zur Erkennung von natürlicher Sprache (NLP), damit sie im Dialog die Absichten der Nutzer möglichst genau verstehen. Außerdem wird ein Service wie Google Language Detection benötigt. Dieser ermöglicht es dem Bot, mehr als nur eine Sprache zu sprechen. Weitere Tools zur Erweiterung der Bot-Funktionalitäten sind QR-Code-Reader, die Speech-to-Text-Funktion zur Transkription von Telefongesprächen oder ein Optical Character Readern (OCR), der es den Usern ermöglicht, Dokumente als Bilder hochzuladen.

2. Der Bot braucht Futter

Damit sich die Konversation mit einem Chatbot für die Anwender so natürlich wie möglich anfühlt, muss dieser die Anfragen der Nutzer verstehen und verarbeiten können. Im Vorhinein ist es daher notwendig, bestimmte Nutzer-Absichten, die sogenannten „Intents“, zu definieren. Es ist also von Beginn an entscheidend, den KI-basierten Bot mit entsprechenden Informationen zu füttern, um ihm eine ideale Sprachfähigkeit anzulernen.

Daten, die dabei helfen, den virtuellen Assistenten auf die inhaltlich richtige Fährte zu schicken, sind Inhalte früherer und bestehender Kundendialoge. Welche Fragen werden am häufigsten gestellt? Kann man diese in bestimmte Themenbereiche clustern? Und welche Antworten sind jene, die der Kundendienst am häufigsten nutzt? Sind diese Daten nachvollzieh- und nutzbar, sollten sie in das entsprechende System eingepflegt werden, um ein entsprechendes Natural Language Processing (NLP) in Gang zu setzen.

Falls keine Daten aus Chat-Historien mit Kunden vorliegen, müssen die Trainer antizipieren, welche Fragen sich Kunden und Nutzer stellen könnten. Dabei ist es wichtig, möglichst viele Varianten in das System einzupflegen. Mitunter ist es auch sinnvoll, Rechtschreibfehler in das Bot-Training einzubauen, da diese in der Praxis nun einmal auftreten. Wie viele Trainingsdaten insgesamt notwendig sind, hängt vom System beziehungsweise den angebundenen NLP-Services ab. Google benötigt pro Frage-Antwort-Paar 15 bis 20 Fragebeispiele, damit die Spracherkennung von Beginn an solide funktioniert.

3. Chatbot Operations als Lebenselixier

Ist der Chatbot ausreichend trainiert, kann er sich an die Arbeit machen. Doch direkt nach dem Go-live folgt ein erfolgskritischer Lebensabschnitt: Im Zuge der eigentlichen Chatbot Operations müssen Ressourcen und Prozesse bereitgestellt werden, die die Konversationen zwischen Chatbot und Usern überprüfen und den Chatbot gleichzeitig trainieren. Heißt in der Praxis: Bestätigen, wenn der Chatbot die richtige Antwort gegeben hat und korrigieren, wenn die Antwort falsch war.

Natürlich müssen dem Chatbot auch immer wieder neue Inhalte beigebracht werden, wenn dieser eine Frage nicht beantworten konnte. Dafür benötigt man einfach zu bedienende Tools, die einen ressourcenschonenden Rahmen schaffen. Im Idealfall sorgt eine solche Anwendung beispielsweise dafür, dass nicht beantwortete Fragen in Themen geclustert werden und auf dieser Basis im Trainingsprozess gezielt nachgesteuert werden kann. So können Chatbots schnell ihr Wissen erweitern und vorhandene Kenntnisse verbessern.

In der Umsetzung bedeutet das etwa eine tägliche Überprüfung der Chatbot-Historie. Beim sogenannten „History Training“ überprüfen Trainer, ob alle Intents richtig bedient werden. Darüber hinaus sollten aus bislang unbekannten Benutzerabfragen neue Intents abgeleitet werden, um zusätzliche Kundenbedürfnissen decken zu können. Zudem müssen Unternehmen die Intent Performance immer im Blick behalten, um den jeweiligen Trainingsstatus bewerten zu können.

4. Bot-Weiterbildung

Dass der Trainingsaspekt für die Leistungsfähigkeit von Sprachassistenten eine entscheidende Rolle, dürfte inzwischen klar geworden sein. Training im Vorfeld, Training nach dem Go-live – Training über die gesamte Lebensdauer des Bots. Klar, der Aufwand mag mit der Zeit abnehmen, da sich die Sprachkenntnisse kontinuierlich weiterentwickeln und die Performance sich nicht verschlechtern wird. Das Ziel bleibt aber ein nachhaltiger Ausbau der Sprachkenntnisse, um mit der Zeit weitere und immer komplexere Themen zu bearbeiten.

Um dieses Ziel zu realisieren ist eine ständige Analyse des aktuellen Standes wichtig. Auf Basis der eigenen Ziele und KPIs muss anhand bestimmter Metriken analysiert werden, welche Weiterentwicklungen für den Bot überhaupt Sinn ergeben. Daten aus Analyse-Tools wie ChatbaseDashbot und Botanalytics bilden die Basis, damit Unternehmen ihre Kunden beziehungsweise Nutzer mit ihren jeweiligen Verhaltensmustern besser verstehen und sie den Bot gezielt auf die entsprechenden Bedürfnisse auszurichten können.

5. Back-up aus Fleisch und Blut

Natürlich kommt es auch vor, dass ein Chatbot einmal keine Antwort geben kann, weil etwa die Frage der User zu spezifisch ist oder dem virtuellen Helfer die entsprechenden Inhalte noch nicht antrainiert wurden. In diesem Fall sollte der Betreiber des Bots Nutzern unbedingt die Möglichkeit bieten, mit einem ihrer Mitarbeiter zu sprechen. Beim sogenannten Human Handover übernimmt ein Mensch die Konversation vom Chatbot und kümmert sich um das konkrete Anliegen oder Problem der User.

Keine Erfolgsformel ohne den Faktor „Mensch“

Die Symbiose zwischen Mensch und Maschine stellt ein zentrales Element für die erfolgreiche Implementierung eines virtuellen Helfers dar, wie das Beispiel des Human Handover eindeutig zeigt. Um die Performance von Chat- und Voicebots langfristig beurteilen zu können, müssen sich Unternehmen aber vor allem fragen, wie sich ihre die KPIs und Ziele über einen längeren Zeitraum entwickeln sollen.

Wie hoch ist die Human-Handover-Rate? Wie akzeptiert ist der Bot beim Nutzer? Kann man den Bot kontinuierlich trainieren und weiterentwickeln oder benötigt man neue Use Cases? Die laufende Beantwortung dieser Fragen und damit die Analyse der Chatbot-Performance ist wegweisend für eine nachhaltig erfolgreiche Kundenkommunikation durch den Einsatz virtueller Assistenten. Denn nur ein gut funktionierender Chatbot trägt zur Zufriedenheit derjenigen bei, die im Endeffekt darüber entscheiden, wie erfolgreich ein Unternehmen ist.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

*Michelle Skodowski ist COO und Mitgründerin von BOTfriends.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*