Datenqualität als kontinuierlicher Prozess

Einmal ist keinmal: Warum gute Datenqualität kein einmaliger, sondern ein kontinuierlicher Prozess ist bzw. sein sollte. [...]

„Panta rhei – alles fließt“ – dieser Aphorismus des griechischen Philosophen Heraklit gilt ganz besonders für den Bereich Kundenstammdaten. Fast kontinuierlich ergeben sich Veränderungen und Aktualisierungen, die natürlich laufend berücksichtigt werden müssen, um die Qualität der Kundenstammdaten auf einem hohen Niveau zu halten. Aus diesem Grund sind auch alle Maßnahmen, die darauf abzielen, mit einer einmaligen Aktion für qualitativ bessere Kundendaten zu sorgen, von vorneherein zum Scheitern verurteilt. Stattdessen ist es notwendig, einen kontinuierlichen Kreislauf an Maßnahmen zu definieren und zu implementieren, mit dem die Qualität der Daten sukzessive und nachhaltig verbessert wird.
Dass so eine sukzessive und nachhaltige Optimierung der Kundenstammdaten heute unbedingt erforderlich ist, ist unbestritten. Schlecht gepflegte Kundendaten kann und möchte sich kein Unternehmen mehr leisten, denn eine möglichst hohe Datenqualität ist heute zentraler Erfolgsfaktor für:
  • einen 360-Grad-Blick auf den Kunden als wichtige Voraussetzung.
  • die Planung und Durchführung von Marketing- und Vertriebskampagnen.
  • einen auf die Bedürfnisse des Kunden angepassten Support und Kundendienst.
  • perfekt auf dessen Bedürfnisse angepasste Produkte und Services.
  • das Erfüllen von Compliance-Anforderungen und gesetzliche Auflagen (z.B. im Banken- und Finanzwesen).
  • für richtige strategische Geschäftsentscheidungen auf der Grundlage von Predictive Analytics Methoden.

Kundenstammdaten: Nichts ist beständiger als der Wandel
Wenn sich die meisten Unternehmen der Bedeutung einer hohen Datenqualität bewusst sind, stellt sich natürlich die Frage, weshalb es immer noch vielen Unternehmen nicht gelingt, die Qualität ihrer Kundenstammdaten nachhaltig auf einem hohen Level zu halten. Dies liegt natürlich zuerst einmal in der Natur der Sache. Persönliche Daten wie Adresse oder Telefonnummer sind heute einem fast ständigen Wandel unterzogen. Menschen ziehen um oder sterben, Straßen- und Ortsnamen werden umbenannt und im B2B-Bereich sorgen Insolvenzen, Firmenübernahmen und -zusammenschlüsse sowie Mitarbeiterwechsel für sich ständig ändernde Firmen- und Adressdaten.
Ein weiterer externer Faktor für mangelhafte Kundendatenqualität, den das Unternehmen selbst kaum beeinflussen kann, ist der Kunde selbst. Gibt dieser seine Daten – bei einer Anfrage, einer Bestellung oder einer Reklamation – falsch oder unvollständig ein, ist es für das Unternehmen zuerst einmal schwierig bis unmöglich, diesen Fehler zeitnah zu erkennen und zu beseitigen.
Das gleiche gilt natürlich für die Eingabe von Kundendaten durch Mitarbeiter im Unternehmen: Bei einer Bestellung im Call Center oder einer Reklamation im Kundendienst, dem manuellen Eingeben einer Bestellung oder dem Übertragen der Kundendaten in die Buchhaltung oder das ERP-System. Der Faktor Mensch sorgt dafür, dass diese Vorgänge mit einer hohen Fehleranfälligkeit behaftet sind.
Womit wir bei den unternehmensinternen Faktoren sind, die die Optimierung der Datenqualität behindern. Neben dem Faktor Mensch besteht ein zentraler Hindernisgrund in der Tatsache, dass Kundendaten heute immer noch in isolierten Datensilos verarbeitet werden. Das CRM-System für den Vertrieb, die Marketing-Automation-Software für das Marketing, das Ticketing-System für den Kundendienst oder das ERP-System für die Buchhaltung und das Controlling. In allen diesen Systemen werden Kundendaten abgespeichert und getrennt voneinander bearbeitet und aktualisiert. Dies führt zum einen zu einem Kundendaten-Wildwuchs, auf der anderen Seite ist es für die meisten Unternehmen auch heute noch schwierig bis unmöglich, diese unterschiedlichen Datenbanken zu einer zentralen Kundenstammdatenbank zu konsolidieren. Doch genau davon hängt der Erfolg einer jeden Maßnahme zur Optimierung der Datenqualität ab. Ohne Konsolidierung keine Optimierung der Datenqualität.
Der Datenqualitätskreislauf
Doch auch die Konsolidierung allein führt nicht zwangsläufig zu höherer Datenqualität, sondern muss um weitere Maßnahmen ergänzt werden. Dabei ist es notwendig, die einzelnen Maßnahmen in einen kontinuierlichen Kreislauf zu integrieren, denn erst damit können die kontinuierlichen Veränderungen bewältigt werden. Der Datenqualitätskreislauf ist die Grundlage für eine nachhaltige Optimierung der Kundenstammdaten und er verdeutlicht einmal mehr, dass es sich dabei nicht um eine einmalige Adhoc-Aktion, sondern einen Closed Loop aus Maßnahmen handelt, die nahtlos ineinandergreifen und bei denen es prinzipiell keinen Anfang und kein Ende gibt. Der Datenqualitätskreislauf besteht aus den folgenden vier Phasen:
  • 1. Analysieren
  • 2. Bereinigen
  • 3. Schützen
  • 4. Überwachen
Der Schwerpunkt der Analyse-Phase besteht darin, sich einen Überblick über den IST-Zustand der im Unternehmen verfügbaren Kundenstammdaten zu verschaffen. Damit können Defizite bei Art und Umfang der Daten, Inkonsistenzen bei Datenattributen und mögliche Verstöße gegen vorgegebene Regeln zur Datenerfassung aufgedeckt werden.
In der Bereinigen-Phase werden dann die Maßnahmen getroffen, die in der Analyse erkannten Defizite zu beseitigen und die Qualität der Daten zu optimieren. Dazu werden die erforderlichen Daten aus den verschiedenen Quellsystemen (CRM, ERP, Service-Helpdesk, etc.) extrahiert und validiert (z.B. durch postalische Adressprüfung, Bereinigung von Dubletten, etc.). Darüber hinaus werden die Daten in dieser Phase durch weitere Informationen angereichert (z.B. Geodaten) und letztendlich zum so genannten „Golden Record“, der Mutter aller Kundenstammdatensätze, konsolidiert.
Die „Schützen“-Phase dient dann dazu, das Datenqualitätsniveau langfristig und nachhaltig zu wahren. Dazu werden an den Stellen, an denen Daten in das Unternehmen gelangen, so genannte „DQ-Checks“ eingerichtet, die sicherstellen, dass die Daten bereits beim ersten Erfassen eine möglichst hohe Qualität haben und dass ein schleichendes Verschmutzen der Daten verhindert wird, indem nur Daten in das System aufgenommen werden, die dem Verwendungszweck angemessen sind. In der Praxis werden dazu entsprechende DQ-Firewalls eingerichtet, man spricht auch von „First Time Right“.
In der letzten Phase geht es letztendlich darum, Prozesse einzurichten, die ein kontinuierliches Überwachen und Dokumentieren der Datenqualität im Unternehmen sicherstellen. Eine DQScorecard hilft beispielsweise dabei, die Qualität einzelner Datenbestände auf einen Blick zu erfassen und zu beurteilen. Erfolgt dies nicht, droht ein schleichendes Verschlechtern des vorgegebenen bzw. erforderlichen Datenqualitätslevels. Die Ergebnisse dieser Überwachung und deren Dokumentation bieten dann letztendlich die Grundlage für eine erneute Analyse der Datenqualität und schließen damit den Datenqualitätskreislauf.
„Golden Record“ ist gut – „Golden Profile“ ist besser
Immer mehr Unternehmen erkennen die zentrale Bedeutung, die eine möglichst aktuelle, präzise, vollständige und korrekte 360-Grad-Sicht auf den Kunden, sozusagen ein eisernes Grundvertrauen in die eigenen Daten, für ihren zukünftigen Geschäftserfolg hat. Allerdings reichen dazu die im Unternehmen gesammelten Kundenstammdaten allein nicht mehr aus, um diese 360-Grad-Sicht zu erreichen. Denn in den Zeiten einer immer rascher fortschreitenden Digitalisierung des Kunden hinterlässt dieser eine ganze Reihe von Spuren und zwar nicht nur an den vielfältigen Touch Points des Unternehmens (Webseite, Online-Shop, Newsletter, etc.), sondern auch in Online-Communities, Bewertungsportalen und sozialen Medien, die ebenfalls in die 360-Grad-Sicht einfließen müssen.
Mit Ground Truth hat Uniserv eine Lösungs- und Prozess-Methodik entwickelt, die Unternehmen entsprechend dabei unterstützt, in einem mehrstufigen Vorgehen letztendlich das Golden Profile eines jeden Kunden zu erstellen, das dessen Adressdaten, sein Kaufverhalten, seine Interessen und Vorlieben, aber auch seine Kommunikation und Interaktion mit dem Unternehmen zu einem zentralen Datensatz aggregiert. Darüber hinaus werden in den Golden Profiles die oben genannten Spuren integriert, die der Kunde im Internet und den sozialen Netzwerken hinterlässt. Konkret bedeutet dies, dass die Stammdaten eines jeden Kunden (Golden Record) sowie die Bewegungsdaten (Transaktions- und Interaktionsdaten) zusammengeführt werden. Ground Truth sorgt darüber hinaus für eine kontinuierliche Aktualisierung dieser Daten sowie eine Synchronisierung der Daten über die unterschiedlichen Datenquellen hinweg. Ground Truth wird damit zur zentralen Komponente für eine optimale und nachhaltige Datenqualität im Unternehmen.
Fazit: Wer die Qualität seiner Kundendaten steigern und kontinuierlich auf hohem Niveau halten möchte, darf diese Aufgabe nicht als Einmal-Aktion betrachten, sondern muss dafür sorgen, dass ein kontinuierlicher Datenqualitätskreislauf aus nahtlos ineinander übergreifenden Maßnahmen zur Optimierung der Datenqualität implementiert wird, idealerweise unternehmensweit. Erst dann lassen sich die Herausforderung einer nachhaltig hohen Datenqualität erfolgreich meistern. Mit der Ground-Truth-Methode sind Unternehmen darüber hinaus in der Lage, das so genannte Golden Profile eines jeden Kunden zu bilden. Als Gesamtheit aus Stammdaten und Bewegungsdaten bildet das Golden Profile die wirkliche, echte 360-Grad-Sich auf den Kunden, als Basis für ein Grundvertrauen in die Daten. Abgerundet wird das mit kontinuierlicher Datenqualität im Closed Loop, womit einem professionellen Kundendatenmanagement für eine erfolgreiche Customer Journey nichts mehr im Wege steht.
* Holger Stelz ist Director Marketing & Business Development bei UNISERV.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*