Information – nicht Geld – regiert die Welt

Aus Unternehmenssicht spielen in Bezug auf die Ressource Information die Relevanz der Information und die Vertrauenswürdigkeit eine große Rolle. Nur wenn diese beiden Kriterien erfüllt sind, erhöhen Informationen tatsächlich die Wettbewerbsfähigkeit. [...]

Informationen in Unternehmen müssen heute als betriebswirtschaftliches Vermögen, als Ressource behandelt werden. Aus dieser Erkenntnis ergibt sich die Anforderung, Informationen über ihren gesamten Lebenszyklus hinweg zu managen. Strategien zur Speicherung, Analyse und Bereitstellung der Daten werden aktuell unter dem Schlagwort »Big Data« zusammengefasst. Die Fähigkeit, große Mengen von Daten in analytischen Datenhaltungssystemen verarbeiten zu können, garantiert aber noch nicht deren Vertrauenswürdigkeit. Information Management hat weitere Aufgaben zu erfüllen:
  • – Definition der Daten: Unternehmensweit muss eine eindeutige und konsistente Terminologie bezüglich der Geschäfts-Objekte existieren. Was ist beispielsweise unter Umsatz zu verstehen, welche Kennzahlen existieren, was ist ein Kunde, was ein Partner?
  • – Modellierung der Daten: Die Beziehungen (Semantik) zwischen den Objekten müssen eindeutig beschrieben werden.
  • – Meta- und Stammdatenmanagement: Ein einheitliches Management bedeutet hier die zentrale, nicht redundante Verwaltung von Stammdaten sowie deren beschreibende Metadaten in einem Repository. Hinzu kommen Abbildungen des gesamten Lebenszyklus der Daten für eine vollständige Nachvollziehbarkeit und Transparenz. Dies fordert die Compliance.
  • – Datenqualitätsmanagement: Daten müssen unternehmens- und nutzerspezifischen Kriterien der Relevanz, Korrektheit und Konsistenz genügen. Anstatt auf Insellösungen zu setzen und nachträglich zu korrigieren, sollte Datenqualität von Anfang an in alle Prozesse integriert sein, bis hin zu einem Monitoring über den gesamten Nutzungszeitraum. Es empfiehlt sich ein Total-Data-Quality-Ansatz.
  • – Datenintegration: Synchronisierung und Bereitstellung der Daten quer über alle Applikationen hinweg.
  • – Datensicherheit und -schutz.
DATENQUALITÄT
Kernaufgaben sind also Datenintegration und Datenqualität. Die entscheidende Grundlage eines erfolgreichen Information Management auf Business-Ebene ist aber Data Governance: »Information Management braucht eine Organisation mit klaren Rollen und Verantwortlichkeiten«, formuliert es der Analyst Wolfgang Martin, Geschäftsführer des Beratungshauses S.A.R.L. Martin. »Es braucht rigorose Prozesse und Policies sowie die richtige Technologie und die passende Plattform. Die Konsequenz ist die Erfüllung aller Anforderungen, die Compliance an die Daten stellt.« Mittels einer solchen, in allen Schichten integrierten Data Governance lassen sich vertrauenswürdige Daten schaffen. Nur sie kommen als Fundament für Business-Entscheidungen in Frage. »So wie Geschäftsprozesse mittels Kennzahlen gesteuert werden, werden auch die Governance-Prozesse des Information Management mittels Kennzahlen gesteuert. Das ist ein Schlüssel zu einem professionellen und erfolgreich gelebten Information Management. Das Ergebnis ist ein Total Quality Management, das heißt, die Qualität wird kontinuierlich überwacht und gesteuert. So kann beispielsweise auch im operativen Betrieb sichergestellt werden, dass die Regeln und Policies von Compliance-Anforderungen erfüllt werden«, erklärt Martin.
SERVICEORIENTIERTE DATEN
Der zweite Schlüssel liegt in den Händen der IT: Eine technologische Basis für eine effiziente Information Governance auf Grundlage von Data Management und einer integrierten, Service-orientierten Plattform. Kern einer solchen Plattform ist ein Repository, das alle Elemente des Information Managements abbildet und eine zentrale Verwaltung von Metadaten, wie Datei- und Datenbankdefinitionen oder Transformationsregeln, erlaubt. Hierzu wird das Repository um ein Regel-Management ergänzt, mit dem individuelle Geschäfts- oder Datenqualitätsregeln definiert werden. Ein solches Repository ist idealerweise aktiv. Das bedeutet, es werden nicht nur Informationen gespeichert und verwaltet, sondern die Komponenten der Plattform aktiv mit Informationen versorgt. Sobald es also zu Änderungen bei Richtlinien, Regeln und Prozessen kommt, werden alle davon betroffenen Komponenten zeitnah und applikationsübergreifend angezeigt und soweit wie möglich auch automatisch angepasst. Damit erreicht man funktionsseitig die notwendige Änderungsgeschwindigkeit und Flexibilität. Um dies zu unterstützen, sollten Änderungen und Pflege auch nutzerorientiert erfolgen – Anpassungen müssen sich in einer einfach zu bedienenden Oberfläche workflowunterstützend einstellen (parametrieren) lassen.
Die Architektur der Plattform sollte zudem Service-orientiert sein (SOA), denn so lassen sich Information-Management-Funktionen in jeden betroffenen Prozess schnell und standardisiert integrieren und stehen sofort zur Nutzung bereit. Das sollte auch für die eigenen Funktionen der Nutzer und Services von Dritten gelten – auch hierfür muss die Plattform offen sein.
LAUFENDE ÜBERPRÜFUNG
Im Bereich Datenqualität vereint eine geeignete Plattform Services, die den Data Quality Lifecycle in seiner Gesamtheit abdecken. Das Spektrum reicht von der Analyse des Datenbestands sowie Services zum Cleansing, zur Konsolidierung und Anreicherung über eine Firewall, die in den Applikationen eine Datenverschmutzung schon beim Input in Echtzeit verhindert, bis hin zu einem dauerhaften und lückenlosen Monitoring und einem eindeutigem Reporting. Hinzu kommen umfangreiche Services für die Datenintegration. Für die Praxis heißt dies, dass Datenqualitäts-Services direkt und in Echtzeit in den Applikationen des Nutzers für valide Daten sorgen – ohne ständigen, umfangreichen Integrationsaufwand. So ist es beispielsweise möglich, neue Kundendaten bei der Übernahme in ein CRM-System direkt bei der Eingabe auf ihre Korrektheit zu überprüfen, die Sicht auf den Kunden zu verbessern und neue Sales-Potenziale zu erschließen. Ein weiteres Beispiel ist die Möglichkeit, Systemkonsolidierungen von Anfang bis Ende unter dem Blickwinkel der Datenqualität zu begleiten, etwa bei Mergers & Acquisitions, womit Kostenaufwände minimiert werden können.
KOMPETENZZENTRUM
Zu guter Letzt müssen noch Verantwortlichkeiten festgelegt werden. Hier hat sich eine Struktur rund um ein Information-Management-Kompetenzzentrum bewährt. Ein solches Kompetenzzentrum vereint laut Martin »Führung und Kontrolle der Information-Management-Strategie und der Information-Management-Methoden, -Standards, -Regeln und -Technologien. Es wird gemeinsam vom Business und von der IT aufgesetzt, betrieben und gelebt.« Data Governance ist damit eine gemeinsame Aufgabe von Unternehmensführung, Fachabteilungen und IT, denn die verteilten Kenntnisse über Businessprozesse und Anwendungssysteme müssen zusammengeführt werden. Wird Data Governance durch einen solchen Rahmen forciert, können alle Unternehmensprozesse mit qualitätsgesicherten Daten operieren und die Ressource Information wird optimal genutzt. Data Governance steigert damit nicht nur die Effizienz im täglichen Umgang mit Daten, sondern ermöglicht Wertschöpfung.
*Holger Stelz arbeitet als Leiter der Geschäftsentwicklung bei Uniserv.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*