10 Fragen rund um Data Quality und Stammdatenmanagement

In einem digitalisierten Prozess beeinflusst die Qualität der Daten direkt die Prozesseffizienz und den Unternehmenserfolg, denn der Mensch als Korrektiv entfällt. Experten mahnen daher, die Datenqualität zu verbessern. Der ERP-Hersteller proALPHA hat die häufigsten Fragen dazu zusammengestellt. [...]

Die Petition gegen "How Gay Are You" hat innerhalb von zwei Wochen 1.660 Unterstützer gefunden. (c) pixabay

Die Achillesferse für eine effiziente Digitalisierung liegt nicht in der Technik. Der entscheidende Schwachpunkt sind die Daten. Schleicht sich im digitalisierten Prozess eine Null zu viel ein oder fehlen wichtige Angaben, hat der gesunde Menschenverstand keine Chance mehr einzugreifen. Diese Schwäche lässt sich nur mit einem stringenten Fitnessprogramm für Daten beseitigen. Der ERP-Hersteller proALPHA hat 10 häufige Fragen und Antworten über Data-Quality- und Stammdatenmanagement zusammengefasst:

1) Lässt sich Datenqualität überhaupt vernünftig messen und bewerten?

Experten beschreiben bis zu 15 theoretische Dimensionen von Datenqualität. Die Praxis ist einfacher: Automatisierte Prozessschritte müssen vor allem mit vollständigen, aktuellen und vor allem eindeutigen Daten arbeiten. Denn bei Dubletten im Teilestamm oder in den Kundendaten schwächelt die Effizienz. Existieren etwa für einen Kunden zwei Datensätze, kann dies dazu führen, dass er wie ein C-Kunde behandelt wird, obwohl er tatsächlich zu den B-Kunden zählt. Dabei ist nicht jede Information gleich wichtig. Denn verschiedene Schreibweisen einer Adresse haben nicht die gleiche Auswirkung auf die Prozessfitness wie eine fehlende Konditionenliste für einen Lieferanten. Deshalb gehört zur Messung der Datenqualität auch immer eine Bewertung der gefundenen Fehler. Besonders kritische Fälle erfordern zudem einen Eskalations-Workflow, um Fehler zeitnah auszumerzen.

2) Lohnt sich die Mühe? Ist nicht alles nach kurzer Zeit wieder genauso chaotisch wie vor einer Bereinigung?

Wer bereits mit mehreren Projekten versucht hat, die Datenqualität in den Griff zu bekommen, wird sich wie Sisyphus in der griechischen Sage fühlen. Kaum oben angekommen, rollt der Stein wieder den Berg hinunter und die Mühe beginnt von vorne. Tatsächlich zeigen Erfahrungswerte, dass der Effekt eines projektweisen Säuberns nach einer gewissen Zeit wieder verpufft. Wie beim Lauftraining heißt es dranbleiben und ein Programm für Datenqualität implementieren.

3) Wo am besten anfangen?

Idealerweise startet ein Unternehmen dort, wo bessere Daten den schnellsten Mehrwert liefern. Das kann im Einkauf sein, weil Lieferantenadressen, Konditionen und Wiederbeschaffungszeiten die operative Beschaffung spürbar beschleunigen. Auch ein Start in Produktion und Logistik kann helfen, Teilestämme sauber zu pflegen. Teile sind dann vollständig ihren Gruppen zugeordnet und für den Versand liegen alle nötigen Gewichtsangaben vor. Je nach Branche und Unternehmen können auch Vertrieb und Service besonders stark profitieren, wenn Adress- und Vertragsdaten aktuell sind.

4) Lässt sich ein Datenqualitätsprogramm auch ohne Analysegurus oder Excel-Spezialisten etablieren?

Moderne Analyseprogramme kommen heute völlig ohne Programmierung aus. Das Definieren der Regeln ist für einen User, der sich im System etwas auskennt, kein Hexenwerk. Sind die Regeln einmal definiert, erhalten die Mitarbeiter der Fachabteilung einen Hinweis, welche Daten neu zu korrigieren sind. Im Idealfall können sie sich unmittelbar zu dem betroffenen Datensatz durchklicken. Das spart Zeit. Kurzfristige Korrekturen sorgen außerdem für einen raschen Lerneffekt. Die Fehlerhäufigkeit geht damit ganz natürlich zurück.

5) Wie schnell lassen sich solche Regelwerke an neue Anforderungen anpassen?

Änderungen sind heute sehr kurzfristig machbar. Denn moderne Analysewerkzeuge erfordern weder die Programmierung durch einen Softwarehersteller noch einen IT-Experten. Allerdings müssen Unternehmen dabei sicherstellen, dass sich Regeländerungen nicht widersprechen oder an anderer Stelle zu Problemen führen. Ohne eine Data Governance geht es nicht.

6) Müssen für eine laufende Datenprüfung und Bereinigung alle Daten in einem System sein?

Wer das postuliert, denkt weltfremd. Denn die allermeisten Unternehmen arbeiten heute mit mehr als einem System. Prüfsoftware, sogenannte Data Quality Manager, integrieren heute mühelos Daten mehrerer Quellen und prüfen sie gemeinsam.

7) Wie bekommt man das Thema international in den Griff?

Hier führt am Stammdatenmanagement kein Weg vorbei. Klare Verantwortlichkeiten sind dabei das A und O: Wer ist für welche Daten zuständig, wer darf und wer muss welche Daten ändern – und wo, in welchem System. Das Stammdatenmanagement regelt, welche Daten zentral und welche lokal gepflegt werden, und sorgt für die nötige Synchronisation.

8) Wie lässt sich ein Fortschritt zuverlässig messen und dokumentieren?

Das Reporting regelmäßiger Analyseläufe darf sich nicht nur auf den Ausweis einzelner Fehler beschränken. Es muss auch ein Controlling im Sinne eines „state of the data“ ermöglichen. Dieser Zustandsbericht zeigt der Fachabteilung sowie dem Management, dass sich Datenbereinigung lohnt und die Bemühungen Früchte tragen – und das nachhaltig. Es kann sich hier sogar ein gesunder Wettbewerb unter den Bereichen entwickeln.

9) Wie läuft ein Programm für kontinuierliche Datenqualität ab?

Eine Data Quality Manager-Software prüft die zuvor extrahierten Teilestämme, Kundendateien oder andere Daten gegen ein Regelwerk. So sind zum Beispiel Postleitzahlen in Großbritannien alphanumerisch, in Deutschland oder Österreich bestehen sie dagegen nur aus Ziffern. Auch Prüfungen gegen externe Datenbanken, die etwa Postleitzahl und Straße plausibilisieren, sind möglich. Neben der reinen Fehlererkennung kategorisiert die Software, ob es sich um schwerwiegende Mängel oder um Defizite mit geringer Tragweite handelt. Die gefundenen Fehler werden dann nebst Bewertung an das Zielsystem übergeben. In den meisten Fällen ist das ein ERP-System. Dort können dann die Mitarbeiter direkt die Daten bereinigen. Wird ein Ausnahmefall festgestellt, wird dieser neu im Regelwerk vermerkt. All dies lässt sich heute bewerkstelligen, ohne dass ein Mitarbeiter oder ein Berater eine Zeile Code programmieren müsste.

10) Wie oft sollten Datenbestände geprüft werden?

Dafür gibt es keine festen Vorgaben. Die Frequenz hängt sehr vom jeweiligen Unternehmen, seinen Abläufen und Datenbeständen ab. Wie jedes Fitnessprogramm wird es auf die individuellen Ziele und Leistungsparameter abgestimmt. Entscheidend ist, dass kontinuierlich und regelmäßig geprüft und der Fortschritt gemessen wird.

Die meisten Unternehmen sind sich ihrer Achillesferse inzwischen bewusst und bereit, aktiv etwas für die Datenqualität zu tun. Diejenigen, die schon begonnen haben, berichten von einem doppelten Trainingseffekt: Das Data Quality Management sorgt zum einen intern für mehr Produktions- und Prozesssicherheit – und so für fundierte Entscheidungen. Zusätzlich steigern verlässliche Aussagen über Liefertermine und Verfügbarkeiten bei Kunden sowie Lieferanten die Zufriedenheit und beschleunigen die Zusammenarbeit.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*