5 Best Practices für eine bessere Datenqualität

IT-Dienstleister CGI hat fünf Best Practices zusammengestellt, mit denen Unternehmen die Qualität ihrer Daten steigern können. [...]

Ohne eine optimale Datenqualität kommt es zu Abweichungen oder Fehlern in zentralen Geschäftsprozessen und strategische Big-Data-Analytics-Projekte sind zum Scheitern verurteilt. Eine Korrektur lässt sich nur durch ein systematisches und im idealen Fall unternehmensweites Vorgehen erzielen. Ziel einer Qualitätssteigerung ist es, die relevanten Daten aus den unterschiedlichen Quellen möglichst effizient zur Optimierung von Entscheidungs- und Geschäftsprozessen und letztlich zur Steigerung der Wettbewerbsfähigkeit eines Unternehmens einzusetzen. Eine der wichtigsten Voraussetzungen dafür ist eine kontinuierlich hohe Datenqualität und -integrität. Welche Maßnahmen die Unternehmen dazu umsetzen sollten, zeigt CGI Deutschland anhand von fünf Best Practices.

1. Prioritäten für Verbesserungen setzen
In vielen Fällen bietet es sich an, in den Fachbereichen eine Bestandsaufnahme der aktuellen Probleme vorzunehmen. Die Mitarbeiter kennen die Abläufe am besten und wissen, wo die Schwachpunkte der abteilungsübergreifenden Geschäftsprozesse liegen. So sind beispielsweise Kundendatensätze in den einzelnen Abteilungen unterschiedlich aufgebaut, Daten sind unvollständig, es gibt abweichende Bezeichnungen für Artikel oder in der Materialdatenbank fehlen einzelne Teilenummern. Alle diese Mängel haben unterschiedliche finanzielle Auswirkungen. In einem Projekt zur Verbesserung der Datenqualität empfiehlt es sich dort anzusetzen, wo die Kosten zur Beseitigung am niedrigsten und die monetären Prozessverbesserungen möglichst schnell erreichbar sind.

2. Verfügbarkeit von Daten maximieren
In sehr vielen Geschäftsprozessen – oder auch für Big-Data-Analytics-Applikationen – werden Daten aus mehreren Quellen benötigt. Meist werden sie automatisiert über individuelle Datenimporte oder ETL (Extract, Transform, Load)-Prozesse mit Daten versorgt. Je mehr Schnittstellen vorhanden sind, desto höher sind Wartungsaufwand und Fehleranfälligkeit. Hier muss im Einzelfall geprüft werden, ob ein Data Warehouse, vereinheitlichte Datentöpfe oder eine logische beziehungsweise virtuelle Datenintegration die bessere Lösung bieten.

3. Verantwortlichkeiten, Rollen und Regeln definieren
Eine nachhaltige Verbesserung der Datenqualität erfordert Änderungen und Maßnahmen in den Bereichen Technologie, Organisation und Mitarbeiter. Oft gibt es in den Fachbereichen bereits Mitarbeiter, die „ihre“ geschäftsprozessrelevanten Daten bis ins Detail kennen und bei Datenqualitätsproblemen konsultiert werden. Um die Qualität der Daten zu steigern, reicht es oft nicht aus, mit technischen Mitteln Dubletten zu beseitigen oder Lücken in den Datensätzen aufzuspüren und zu schließen. In der Rolle eines Data Steward stellen die Fachexperten geschäftsprozessbezogene Regeln dafür auf, wie die Daten erzeugt und gepflegt werden, sie sind für die Umsetzung und Einhaltung der Vorgaben verantwortlich und passen die Verfahren kontinuierlich an neue Anforderungen an.

4. Metriken für die Datenqualität aufbauen
Um eine nachprüfbare Wirkung zu erzielen, empfiehlt es sich, konkrete Kennziffern für die Qualität bestimmter Daten festzulegen. Beispiele dafür sind: maximal drei Prozent Fehler in den Kunden- und Artikeldatensätzen, höchstens zwei Prozent in den Adressdaten, nicht mehr als ein Prozent in den Materialdaten oder maximal drei Prozent in Rechnungsrückläufen. Entscheidend ist, dass die Metriken transparent, messbar und überprüfbar sind, damit die Prozessverantwortlichen Rechenschaft über ihre Aktivitäten ablegen können oder im anderen Fall Maßnahmen zur Abhilfe eingeleitet werden und deren Effekt überprüft werden kann.

5. Mechanismen zur kontinuierlichen Verbesserung einrichten
Die Einführung von Datenqualitäts-Management ist kein einmaliges Projekt, vielmehr müssen die Abläufe, Prozesse und Ergebnisse fortlaufend analysiert und verbessert werden. Im Idealfall sollte die Aufgabe dem Regelkreislauf „Plan, Do, Check und Act“ folgen. Damit lässt sich sicherstellen, dass die Workflows zur Sicherung des Datenqualitäts-Managements und zur Einhaltung der Datenintegrität einem kontinuierlichen Verbesserungsprozess unterliegen, bei dem es darum geht, ob interne und externe Regeln sowie Vorschriften tatsächlich umgesetzt und neue Anforderungen berücksichtigt werden.

„Unternehmen können das Thema Datenqualität nicht mehr länger aufschieben. In vielen stark regulierten Branchen ergibt sich die Einhaltung einer hohen Datenqualität aus immer mehr gesetzlichen Vorschriften. An der Etablierung eines unternehmensweiten Datenqualitäts-Managements führt damit kein Weg vorbei“, sagt Knut Veltjens, Vice President / Practice Head Business Intelligence bei CGI in Sulzbach bei Frankfurt am Main. „Darüber hinaus spielt ein effizientes Datenqualitäts-Management eine wichtige Rolle, wenn es um den Ausbau der Wettbewerbsfähigkeit von Unternehmen geht.“ (pi)


Mehr Artikel

Michael Maier, Director Austria iteratec (c) iteratec
Kommentar

KI-Transformation in Unternehmen – Eine Revolution in fünf Schritten 

Wie weit wird die Evolution der Künstlichen Intelligenz gehen und wie wird sie sich auf Wirtschaft und Gesellschaft als Ganzes auswirken? Was für Privatpersonen interessante Fragen sind, sind für Unternehmer existenzielle Themen, schließlich müssen diese wirtschaftlich gegenüber Konkurrenten bestehen, von denen viele bereits an einer effektiven Nutzung von KI arbeiten. […]

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*