Erfolgreiches Customer Relationship Management lebt von der möglichst effektiven Verknüpfung von qualitativ hochwertigen Daten. Deshalb nutzt der CRM-Anbieter CURSOR Austria in seinen Lösungen KI-gestützte Datenanalytik und prädiktive Analyse sowie generative Marketing-KI. Dabei sind wichtige Punkte zu beachten. [...]
Wer CRM und KI verbindet, der muss sich verschiedenen Fragen stellen, die den Datenschutz und die die Sicherheit betreffen sowie gesetzlich bindende Richtlinien wie etwa den vor Kurzem vom Europäischen Parlament verabschiedeten „AI Act“. Das Gesetz soll für Sicherheit und die Achtung der Grundrechte sorgen sowie Innovationen fördern. Die Problemfelder der KI natürlich seien ihm bewusst, sagt Gerhard Wanek, Mitgeschäftsführer CURSOR Austria, der sich aber auch darauf freut, die immensen Möglichkeiten der Technologie in einem definierten Datenschutz-, Compliance- und ESG-konformen Rahmen nutzen zu können.
Datenanalyse für effiziente Prozesse
Der Nutzen der von KI verbesserten Analyseprozesse fürs CRM ist vielfältig. „Schon regelbasierte Chatbots waren eine wichtige Unterstützung im Kundenkontakt, doch der Einsatz von KI und Natural Language Processing (NLP) sowie Large Language Models (LLM) hat neue Standards gesetzt. KI-basierte Chatbots erkennen die jeweilige Anfrage und Absicht der User:innen und lernen aus den fortlaufenden Dialogen“, so Wanek. Diese Lernfähigkeit nutzt CURSOR Austria nun auch für einen intelligenten Assistenten, der Mitarbeiter und Mitarbeiterinnen bei der Kommunikation mit den Kunden und Kundinnen durch seine Effizienz unterstützt und ihnen neue zeitliche Ressourcen eröffnet.
Datenanalyse in Kombination mit Automatisierung sorgt ebenfalls für große Zeitersparnis. Wenn nach Analyse der einlangenden Mails diese von der KI automatisch an die entsprechende Stelle im Unternehmen weitergeleitet werden, erhöht sich die Effizienz der Prozesse maßgeblich – Nachfragen und Rundlaufmails werden damit minimiert.
Blick in die Zukunft für starke Kundenbindung
Wer seine Kundinnen und Kunden gut kennt und dieses Wissen effizient einsetzt, kann sie am besten servicieren und sich ihre Zufriedenheit und auch Loyalität sichern. Auch hier beschleunigt die KI Prozesse, indem sie binnen Sekundenschnelle oft mehrseitige Dokumente auf die jeweils abgefragten wichtigsten Inhalte zusammenfasst und damit den Kundenbetreuern in kürzester Zeit alle relevanten Informationen zur Verfügung stellt.
Gerhard Wanek: „Aber nicht nur reaktiv können wir KI einsetzen, sie erleichtert auch die vorausschauende strategische Arbeit. Wir können zum Beispiel mit unserem Tool für die Kundenzufriedenheit entscheidende Faktoren analysieren und daraus Kennzahlen errechnen, die auf eine mögliche Abwanderung hindeuten.“ Daraus abgeleitete gezielte Empfehlungen unterstützen dann die Mitarbeiter und Mitarbeiterinnen dabei, die Kundenbeziehungen wieder zu stärken oder weiter auszubauen.
Ethisches Problem generative KI?
Ein die generative KI so erfolgreich machendes Merkmal ist aus ethischer Sicht auch gleichzeitig eine ihrer großen Schwachstellen. Sie lernt aus großen Mengen von Daten aus den verschiedensten Quellen und eignet sich durch einen Trainingsprozess die Fähigkeit an, etwas Neues zu schaffen. Doch wer stellt sicher, dass dabei keine urheberrechtlich geschützten Inhalte verwendet oder nicht autorisierte Daten angezapft wurden? „Deshalb ist Transparenz bereits bei der Entwicklung und der Implementierung von Künstlicher Intelligenz gefragt“, so Wanek, „wie etwa das Veröffentlichen detaillierter Zusammenfassungen der Inhalte, die für das Training verwendet werden.“
Auch der sogenannte KI-Bias stellt ein Problem dar – etwa, weil durch eine falsche Kennzeichnung der Daten, eine unzureichende Datenvielfalt in einer bestimmten Kategorie oder eine Voreingenommenheit bei der Auswahl der Trainingsdaten die Ergebnisse verfälscht werden. Dies verringert nicht nur den Wert des Outputs für die Geschäftsprozesse, sondern kann Menschen konkret benachteiligen. Deshalb sollten sorgfältig überprüfte und validierte Datenquellen verwendet werden, wie etwa von der EU geförderte Datenbanken. Auch die Veröffentlichung von Informationen über die Daten, Methoden und Entscheidungslogik der Algorithmen, soweit möglich, kann dazu beitragen, Vertrauen in die KI-Lösungen aufzubauen.
„Generative KI darf keine Blackbox sein“, betont Gerhard Wanek. „Wenn die internen Prozesse komplex, undurchsichtig und größtenteils verborgen sind, kann kein Vertrauen in die Ergebnisse entstehen. Nicht immer kann alles offengelegt werden, doch wir setzen alles daran, unsere Lösungen mit jener Transparenz zu versehen, die es ermöglicht, die unglaublich vielfältigen Möglichkeiten der KI auch ethisch nachhaltig zu verwerten.“
Weitere Infos zu CURSOR Austria finden Interessierte unter https://cursor-austria.at.
Be the first to comment