Information – nicht Geld – regiert die Welt

Aus Unternehmenssicht spielen in Bezug auf die Ressource Information die Relevanz der Information und die Vertrauenswürdigkeit eine große Rolle. Nur wenn diese beiden Kriterien erfüllt sind, erhöhen Informationen tatsächlich die Wettbewerbsfähigkeit. [...]

Informationen in Unternehmen müssen heute als betriebswirtschaftliches Vermögen, als Ressource behandelt werden. Aus dieser Erkenntnis ergibt sich die Anforderung, Informationen über ihren gesamten Lebenszyklus hinweg zu managen. Strategien zur Speicherung, Analyse und Bereitstellung der Daten werden aktuell unter dem Schlagwort »Big Data« zusammengefasst. Die Fähigkeit, große Mengen von Daten in analytischen Datenhaltungssystemen verarbeiten zu können, garantiert aber noch nicht deren Vertrauenswürdigkeit. Information Management hat weitere Aufgaben zu erfüllen:
  • – Definition der Daten: Unternehmensweit muss eine eindeutige und konsistente Terminologie bezüglich der Geschäfts-Objekte existieren. Was ist beispielsweise unter Umsatz zu verstehen, welche Kennzahlen existieren, was ist ein Kunde, was ein Partner?
  • – Modellierung der Daten: Die Beziehungen (Semantik) zwischen den Objekten müssen eindeutig beschrieben werden.
  • – Meta- und Stammdatenmanagement: Ein einheitliches Management bedeutet hier die zentrale, nicht redundante Verwaltung von Stammdaten sowie deren beschreibende Metadaten in einem Repository. Hinzu kommen Abbildungen des gesamten Lebenszyklus der Daten für eine vollständige Nachvollziehbarkeit und Transparenz. Dies fordert die Compliance.
  • – Datenqualitätsmanagement: Daten müssen unternehmens- und nutzerspezifischen Kriterien der Relevanz, Korrektheit und Konsistenz genügen. Anstatt auf Insellösungen zu setzen und nachträglich zu korrigieren, sollte Datenqualität von Anfang an in alle Prozesse integriert sein, bis hin zu einem Monitoring über den gesamten Nutzungszeitraum. Es empfiehlt sich ein Total-Data-Quality-Ansatz.
  • – Datenintegration: Synchronisierung und Bereitstellung der Daten quer über alle Applikationen hinweg.
  • – Datensicherheit und -schutz.
DATENQUALITÄT
Kernaufgaben sind also Datenintegration und Datenqualität. Die entscheidende Grundlage eines erfolgreichen Information Management auf Business-Ebene ist aber Data Governance: »Information Management braucht eine Organisation mit klaren Rollen und Verantwortlichkeiten«, formuliert es der Analyst Wolfgang Martin, Geschäftsführer des Beratungshauses S.A.R.L. Martin. »Es braucht rigorose Prozesse und Policies sowie die richtige Technologie und die passende Plattform. Die Konsequenz ist die Erfüllung aller Anforderungen, die Compliance an die Daten stellt.« Mittels einer solchen, in allen Schichten integrierten Data Governance lassen sich vertrauenswürdige Daten schaffen. Nur sie kommen als Fundament für Business-Entscheidungen in Frage. »So wie Geschäftsprozesse mittels Kennzahlen gesteuert werden, werden auch die Governance-Prozesse des Information Management mittels Kennzahlen gesteuert. Das ist ein Schlüssel zu einem professionellen und erfolgreich gelebten Information Management. Das Ergebnis ist ein Total Quality Management, das heißt, die Qualität wird kontinuierlich überwacht und gesteuert. So kann beispielsweise auch im operativen Betrieb sichergestellt werden, dass die Regeln und Policies von Compliance-Anforderungen erfüllt werden«, erklärt Martin.
SERVICEORIENTIERTE DATEN
Der zweite Schlüssel liegt in den Händen der IT: Eine technologische Basis für eine effiziente Information Governance auf Grundlage von Data Management und einer integrierten, Service-orientierten Plattform. Kern einer solchen Plattform ist ein Repository, das alle Elemente des Information Managements abbildet und eine zentrale Verwaltung von Metadaten, wie Datei- und Datenbankdefinitionen oder Transformationsregeln, erlaubt. Hierzu wird das Repository um ein Regel-Management ergänzt, mit dem individuelle Geschäfts- oder Datenqualitätsregeln definiert werden. Ein solches Repository ist idealerweise aktiv. Das bedeutet, es werden nicht nur Informationen gespeichert und verwaltet, sondern die Komponenten der Plattform aktiv mit Informationen versorgt. Sobald es also zu Änderungen bei Richtlinien, Regeln und Prozessen kommt, werden alle davon betroffenen Komponenten zeitnah und applikationsübergreifend angezeigt und soweit wie möglich auch automatisch angepasst. Damit erreicht man funktionsseitig die notwendige Änderungsgeschwindigkeit und Flexibilität. Um dies zu unterstützen, sollten Änderungen und Pflege auch nutzerorientiert erfolgen – Anpassungen müssen sich in einer einfach zu bedienenden Oberfläche workflowunterstützend einstellen (parametrieren) lassen.
Die Architektur der Plattform sollte zudem Service-orientiert sein (SOA), denn so lassen sich Information-Management-Funktionen in jeden betroffenen Prozess schnell und standardisiert integrieren und stehen sofort zur Nutzung bereit. Das sollte auch für die eigenen Funktionen der Nutzer und Services von Dritten gelten – auch hierfür muss die Plattform offen sein.
LAUFENDE ÜBERPRÜFUNG
Im Bereich Datenqualität vereint eine geeignete Plattform Services, die den Data Quality Lifecycle in seiner Gesamtheit abdecken. Das Spektrum reicht von der Analyse des Datenbestands sowie Services zum Cleansing, zur Konsolidierung und Anreicherung über eine Firewall, die in den Applikationen eine Datenverschmutzung schon beim Input in Echtzeit verhindert, bis hin zu einem dauerhaften und lückenlosen Monitoring und einem eindeutigem Reporting. Hinzu kommen umfangreiche Services für die Datenintegration. Für die Praxis heißt dies, dass Datenqualitäts-Services direkt und in Echtzeit in den Applikationen des Nutzers für valide Daten sorgen – ohne ständigen, umfangreichen Integrationsaufwand. So ist es beispielsweise möglich, neue Kundendaten bei der Übernahme in ein CRM-System direkt bei der Eingabe auf ihre Korrektheit zu überprüfen, die Sicht auf den Kunden zu verbessern und neue Sales-Potenziale zu erschließen. Ein weiteres Beispiel ist die Möglichkeit, Systemkonsolidierungen von Anfang bis Ende unter dem Blickwinkel der Datenqualität zu begleiten, etwa bei Mergers & Acquisitions, womit Kostenaufwände minimiert werden können.
KOMPETENZZENTRUM
Zu guter Letzt müssen noch Verantwortlichkeiten festgelegt werden. Hier hat sich eine Struktur rund um ein Information-Management-Kompetenzzentrum bewährt. Ein solches Kompetenzzentrum vereint laut Martin »Führung und Kontrolle der Information-Management-Strategie und der Information-Management-Methoden, -Standards, -Regeln und -Technologien. Es wird gemeinsam vom Business und von der IT aufgesetzt, betrieben und gelebt.« Data Governance ist damit eine gemeinsame Aufgabe von Unternehmensführung, Fachabteilungen und IT, denn die verteilten Kenntnisse über Businessprozesse und Anwendungssysteme müssen zusammengeführt werden. Wird Data Governance durch einen solchen Rahmen forciert, können alle Unternehmensprozesse mit qualitätsgesicherten Daten operieren und die Ressource Information wird optimal genutzt. Data Governance steigert damit nicht nur die Effizienz im täglichen Umgang mit Daten, sondern ermöglicht Wertschöpfung.
*Holger Stelz arbeitet als Leiter der Geschäftsentwicklung bei Uniserv.

Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*