5 Best Practices für eine bessere Datenqualität

IT-Dienstleister CGI hat fünf Best Practices zusammengestellt, mit denen Unternehmen die Qualität ihrer Daten steigern können. [...]

Ohne eine optimale Datenqualität kommt es zu Abweichungen oder Fehlern in zentralen Geschäftsprozessen und strategische Big-Data-Analytics-Projekte sind zum Scheitern verurteilt. Eine Korrektur lässt sich nur durch ein systematisches und im idealen Fall unternehmensweites Vorgehen erzielen. Ziel einer Qualitätssteigerung ist es, die relevanten Daten aus den unterschiedlichen Quellen möglichst effizient zur Optimierung von Entscheidungs- und Geschäftsprozessen und letztlich zur Steigerung der Wettbewerbsfähigkeit eines Unternehmens einzusetzen. Eine der wichtigsten Voraussetzungen dafür ist eine kontinuierlich hohe Datenqualität und -integrität. Welche Maßnahmen die Unternehmen dazu umsetzen sollten, zeigt CGI Deutschland anhand von fünf Best Practices.

1. Prioritäten für Verbesserungen setzen
In vielen Fällen bietet es sich an, in den Fachbereichen eine Bestandsaufnahme der aktuellen Probleme vorzunehmen. Die Mitarbeiter kennen die Abläufe am besten und wissen, wo die Schwachpunkte der abteilungsübergreifenden Geschäftsprozesse liegen. So sind beispielsweise Kundendatensätze in den einzelnen Abteilungen unterschiedlich aufgebaut, Daten sind unvollständig, es gibt abweichende Bezeichnungen für Artikel oder in der Materialdatenbank fehlen einzelne Teilenummern. Alle diese Mängel haben unterschiedliche finanzielle Auswirkungen. In einem Projekt zur Verbesserung der Datenqualität empfiehlt es sich dort anzusetzen, wo die Kosten zur Beseitigung am niedrigsten und die monetären Prozessverbesserungen möglichst schnell erreichbar sind.

2. Verfügbarkeit von Daten maximieren
In sehr vielen Geschäftsprozessen – oder auch für Big-Data-Analytics-Applikationen – werden Daten aus mehreren Quellen benötigt. Meist werden sie automatisiert über individuelle Datenimporte oder ETL (Extract, Transform, Load)-Prozesse mit Daten versorgt. Je mehr Schnittstellen vorhanden sind, desto höher sind Wartungsaufwand und Fehleranfälligkeit. Hier muss im Einzelfall geprüft werden, ob ein Data Warehouse, vereinheitlichte Datentöpfe oder eine logische beziehungsweise virtuelle Datenintegration die bessere Lösung bieten.

3. Verantwortlichkeiten, Rollen und Regeln definieren
Eine nachhaltige Verbesserung der Datenqualität erfordert Änderungen und Maßnahmen in den Bereichen Technologie, Organisation und Mitarbeiter. Oft gibt es in den Fachbereichen bereits Mitarbeiter, die „ihre“ geschäftsprozessrelevanten Daten bis ins Detail kennen und bei Datenqualitätsproblemen konsultiert werden. Um die Qualität der Daten zu steigern, reicht es oft nicht aus, mit technischen Mitteln Dubletten zu beseitigen oder Lücken in den Datensätzen aufzuspüren und zu schließen. In der Rolle eines Data Steward stellen die Fachexperten geschäftsprozessbezogene Regeln dafür auf, wie die Daten erzeugt und gepflegt werden, sie sind für die Umsetzung und Einhaltung der Vorgaben verantwortlich und passen die Verfahren kontinuierlich an neue Anforderungen an.

4. Metriken für die Datenqualität aufbauen
Um eine nachprüfbare Wirkung zu erzielen, empfiehlt es sich, konkrete Kennziffern für die Qualität bestimmter Daten festzulegen. Beispiele dafür sind: maximal drei Prozent Fehler in den Kunden- und Artikeldatensätzen, höchstens zwei Prozent in den Adressdaten, nicht mehr als ein Prozent in den Materialdaten oder maximal drei Prozent in Rechnungsrückläufen. Entscheidend ist, dass die Metriken transparent, messbar und überprüfbar sind, damit die Prozessverantwortlichen Rechenschaft über ihre Aktivitäten ablegen können oder im anderen Fall Maßnahmen zur Abhilfe eingeleitet werden und deren Effekt überprüft werden kann.

5. Mechanismen zur kontinuierlichen Verbesserung einrichten
Die Einführung von Datenqualitäts-Management ist kein einmaliges Projekt, vielmehr müssen die Abläufe, Prozesse und Ergebnisse fortlaufend analysiert und verbessert werden. Im Idealfall sollte die Aufgabe dem Regelkreislauf „Plan, Do, Check und Act“ folgen. Damit lässt sich sicherstellen, dass die Workflows zur Sicherung des Datenqualitäts-Managements und zur Einhaltung der Datenintegrität einem kontinuierlichen Verbesserungsprozess unterliegen, bei dem es darum geht, ob interne und externe Regeln sowie Vorschriften tatsächlich umgesetzt und neue Anforderungen berücksichtigt werden.

„Unternehmen können das Thema Datenqualität nicht mehr länger aufschieben. In vielen stark regulierten Branchen ergibt sich die Einhaltung einer hohen Datenqualität aus immer mehr gesetzlichen Vorschriften. An der Etablierung eines unternehmensweiten Datenqualitäts-Managements führt damit kein Weg vorbei“, sagt Knut Veltjens, Vice President / Practice Head Business Intelligence bei CGI in Sulzbach bei Frankfurt am Main. „Darüber hinaus spielt ein effizientes Datenqualitäts-Management eine wichtige Rolle, wenn es um den Ausbau der Wettbewerbsfähigkeit von Unternehmen geht.“ (pi)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*