5 Best Practices für eine bessere Datenqualität

IT-Dienstleister CGI hat fünf Best Practices zusammengestellt, mit denen Unternehmen die Qualität ihrer Daten steigern können. [...]

Ohne eine optimale Datenqualität kommt es zu Abweichungen oder Fehlern in zentralen Geschäftsprozessen und strategische Big-Data-Analytics-Projekte sind zum Scheitern verurteilt. Eine Korrektur lässt sich nur durch ein systematisches und im idealen Fall unternehmensweites Vorgehen erzielen. Ziel einer Qualitätssteigerung ist es, die relevanten Daten aus den unterschiedlichen Quellen möglichst effizient zur Optimierung von Entscheidungs- und Geschäftsprozessen und letztlich zur Steigerung der Wettbewerbsfähigkeit eines Unternehmens einzusetzen. Eine der wichtigsten Voraussetzungen dafür ist eine kontinuierlich hohe Datenqualität und -integrität. Welche Maßnahmen die Unternehmen dazu umsetzen sollten, zeigt CGI Deutschland anhand von fünf Best Practices.

1. Prioritäten für Verbesserungen setzen
In vielen Fällen bietet es sich an, in den Fachbereichen eine Bestandsaufnahme der aktuellen Probleme vorzunehmen. Die Mitarbeiter kennen die Abläufe am besten und wissen, wo die Schwachpunkte der abteilungsübergreifenden Geschäftsprozesse liegen. So sind beispielsweise Kundendatensätze in den einzelnen Abteilungen unterschiedlich aufgebaut, Daten sind unvollständig, es gibt abweichende Bezeichnungen für Artikel oder in der Materialdatenbank fehlen einzelne Teilenummern. Alle diese Mängel haben unterschiedliche finanzielle Auswirkungen. In einem Projekt zur Verbesserung der Datenqualität empfiehlt es sich dort anzusetzen, wo die Kosten zur Beseitigung am niedrigsten und die monetären Prozessverbesserungen möglichst schnell erreichbar sind.

2. Verfügbarkeit von Daten maximieren
In sehr vielen Geschäftsprozessen – oder auch für Big-Data-Analytics-Applikationen – werden Daten aus mehreren Quellen benötigt. Meist werden sie automatisiert über individuelle Datenimporte oder ETL (Extract, Transform, Load)-Prozesse mit Daten versorgt. Je mehr Schnittstellen vorhanden sind, desto höher sind Wartungsaufwand und Fehleranfälligkeit. Hier muss im Einzelfall geprüft werden, ob ein Data Warehouse, vereinheitlichte Datentöpfe oder eine logische beziehungsweise virtuelle Datenintegration die bessere Lösung bieten.

3. Verantwortlichkeiten, Rollen und Regeln definieren
Eine nachhaltige Verbesserung der Datenqualität erfordert Änderungen und Maßnahmen in den Bereichen Technologie, Organisation und Mitarbeiter. Oft gibt es in den Fachbereichen bereits Mitarbeiter, die „ihre“ geschäftsprozessrelevanten Daten bis ins Detail kennen und bei Datenqualitätsproblemen konsultiert werden. Um die Qualität der Daten zu steigern, reicht es oft nicht aus, mit technischen Mitteln Dubletten zu beseitigen oder Lücken in den Datensätzen aufzuspüren und zu schließen. In der Rolle eines Data Steward stellen die Fachexperten geschäftsprozessbezogene Regeln dafür auf, wie die Daten erzeugt und gepflegt werden, sie sind für die Umsetzung und Einhaltung der Vorgaben verantwortlich und passen die Verfahren kontinuierlich an neue Anforderungen an.

4. Metriken für die Datenqualität aufbauen
Um eine nachprüfbare Wirkung zu erzielen, empfiehlt es sich, konkrete Kennziffern für die Qualität bestimmter Daten festzulegen. Beispiele dafür sind: maximal drei Prozent Fehler in den Kunden- und Artikeldatensätzen, höchstens zwei Prozent in den Adressdaten, nicht mehr als ein Prozent in den Materialdaten oder maximal drei Prozent in Rechnungsrückläufen. Entscheidend ist, dass die Metriken transparent, messbar und überprüfbar sind, damit die Prozessverantwortlichen Rechenschaft über ihre Aktivitäten ablegen können oder im anderen Fall Maßnahmen zur Abhilfe eingeleitet werden und deren Effekt überprüft werden kann.

5. Mechanismen zur kontinuierlichen Verbesserung einrichten
Die Einführung von Datenqualitäts-Management ist kein einmaliges Projekt, vielmehr müssen die Abläufe, Prozesse und Ergebnisse fortlaufend analysiert und verbessert werden. Im Idealfall sollte die Aufgabe dem Regelkreislauf „Plan, Do, Check und Act“ folgen. Damit lässt sich sicherstellen, dass die Workflows zur Sicherung des Datenqualitäts-Managements und zur Einhaltung der Datenintegrität einem kontinuierlichen Verbesserungsprozess unterliegen, bei dem es darum geht, ob interne und externe Regeln sowie Vorschriften tatsächlich umgesetzt und neue Anforderungen berücksichtigt werden.

„Unternehmen können das Thema Datenqualität nicht mehr länger aufschieben. In vielen stark regulierten Branchen ergibt sich die Einhaltung einer hohen Datenqualität aus immer mehr gesetzlichen Vorschriften. An der Etablierung eines unternehmensweiten Datenqualitäts-Managements führt damit kein Weg vorbei“, sagt Knut Veltjens, Vice President / Practice Head Business Intelligence bei CGI in Sulzbach bei Frankfurt am Main. „Darüber hinaus spielt ein effizientes Datenqualitäts-Management eine wichtige Rolle, wenn es um den Ausbau der Wettbewerbsfähigkeit von Unternehmen geht.“ (pi)


Mehr Artikel

News

Game Development Studie 2024: Knowhow aus Österreich ist weltweit gefragt

Nie zuvor hat eine so große Zahl heimischer Entwickler zum Erfolg internationaler Top-Games aber auch zur digitalen Transformation der österreichischen Wirtschaft beigetragen. Die heimischen Game Developer generieren einen gesamtwirtschaftlichen Umsatz von 188,7 Millionen Euro. Jeder Arbeitsplatz in einem Unternehmen der Spieleentwicklung sichert mehr als einen weiteren Arbeitsplatz in Österreich ab. […]

News

Kunden vertrauen Unternehmen immer weniger

Das Vertrauen von Verbraucher:innen in Unternehmen hat den niedrigsten Stand der letzten Jahre erreicht. Fast drei Viertel (72 Prozent) der Verbraucher:innen weltweit vertrauen Unternehmen weniger als noch vor einem Jahr. Als wichtigsten Grund geben 65 Prozent der Befragten in einer Umfrage von Salesforce an, dass Unternehmen leichtfertig mit den Daten ihrer Kund:innen umgehen. […]

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*