Auf dem Weg zur Data-driven Company

Fortschritte in der digitalen Transformation gibt es nur mit einer konsistenten Daten- und Analytics-Strategie. Doch für viele Traditionsbetriebe ist der Weg zu datengetriebenen Geschäftsmodellen weit, zumal auch die Kultur noch nicht reif dafür ist. [...]

Die Fähigkeit, richtig mit Daten umzugehen, dürfte künftig für alle Mitarbeiter in den Unternehmen immer wichtiger werden (c) pixabay.com

Die Erkenntnis, dass der Erfolg im digitalen Wandel davon abhängt, wie gut oder schlecht ein Betrieb mit Daten umgehen kann, scheint in vielen Führungs­etagen anzukommen. Doch diese Einsicht allein reicht nicht aus. Für die Verantwortlichen geht es jetzt darum, ihre Organisationen neu in die Spur zu setzen. Das ist allerdings alles andere als trivial. Denn die erforderlichen Veränderungen greifen tief: von einzelnen Prozessen über die Organisation bis hin zum grundlegenden Geschäftsmodell, das meist über Jahre, wenn nicht gar Jahrzehnte, mit viel Schweiß und Tränen aufgebaut und laufend verfeinert wurde. Alles zu hinterfragen, auf den Prüfstand zu stellen und hinterher womöglich erkennen zu müssen, dass die einst für so gut befundenen Ideen nicht mehr taugen, kann wehtun.

Wie stark das Trägheitsmoment sein kann, das den digitalen Umbau in Richtung eines Data-driven-Business behindert, hat erst kürzlich eine Umfrage von AT Kearney gezeigt. Deutsche Unternehmen agieren demnach bei der Digitalisierung oft risikoscheu und ohne Vision, lautet die Quintessenz aus den Antworten der 165 interviewten Manager. AT Kearney macht drei Gruppen aus, die zusammen ungefähr drei Viertel der deutschen Betriebe repräsentieren und alle so ihre Schwierigkeiten mit dem digitalen Umbau haben:

  1. Mit gut einem Drittel bilden demnach „risikoscheue Standard-Digitalisierer“ die größte Einzelgruppe, sagt Martin Eisenhut, AT-Kearney-Partner und Managing Director für die Region Deutschland, Österreich und Schweiz. Diese verfolgten keine klare digitale Vision und setzten Maßnahmen erst dann um, wenn andere es auch tun. Ihnen fehle es an einer Digitalkultur. Zudem bilde die langjährig etablierte zentrale Struktur ein großes Hindernis. Eisenhut hält dies für fatal: „Viele Vor­stände haben oft noch das Gefühl, dass es reicht, im Mainstream mitzuschwimmen. Im digitalen Zeitalter gewinnen aber die, die vor der Welle schwimmen, und das erfordert manchmal auch Mut.“
  2. Mit 28 Prozent bilden die „nicht-disruptiven Digitalisierer“ die zweitgrößte Gruppe. Zu ihr zählen Unternehmen, die ein analoges Geschäftsmodell erfolgreich betreiben – auch in der Krise. Diese Unternehmen zögern mit Veränderungen, die ihr traditionelles Modell bedrohen könnten. Nach Ansicht Eisenhuts haben diese Betriebe oft eine digitale Kultur entwickelt und setzen klar priorisierte Digitalmaßnahmen. „Ihre große Gefahr ist jedoch, dass der inkrementelle Fortschritt zum Mantra wird und sie den Moment verpassen, an dem radikale Schritte gefragt wären.“
  3. Gut gemeint ist nicht unbedingt gut gemacht – so beschreibt Eisenhut das Motto der „ambitionierten Digital-Getriebenen„. Ihnen habe bereits vor dem Ausbruch der Pandemie eine echte Digitalvision und eine nachhaltige digitale Führung gefehlt. Sie machen 15 Prozent der Befragten aus und leiden häufig darunter, dass ständig neue Initiativen des Vorstands oder des Aufsichtsrats die digitale Ausrichtung verändern. „Die uneinheitliche Wahrnehmung der durch die Krise noch schneller veränderten Kundenbedürfnisse und die Technologie­dynamik führen in einer unkoordinierten, dezentralen Struktur trotz großer Anstrengungen zu einer fehlenden Priorisierung der einzelnen Digitalmaßnahmen“, erklärte Eisenhut.

Defizite in Sachen Digitalisierung

Gerade die Coronakrise hat Digitalisierungs­defizite schonungslos offengelegt. Die Dynamik der Veränderungen zwingt die Unternehmen, schneller zu transformieren. Das erfordert allerdings eine gute Steuerung, wie die Analysten von Gartner feststellen. Neben der Technik stehen für sie die richtige Organisation sowie angemessene Skills ganz oben auf der To-do-Liste, um ein erfolgreiches datengetriebenes Geschäftsmodell zu etablieren. Unternehmensstrategien würden schon bald explizit Information als kritisches Asset und Analytics als essenzielle Kompetenz beinhalten. Dabei will Gartner nicht mehr trennen. Die Bereiche Data und Analytics gehörten zusammen und sollten auch in den Anwenderunternehmen unter einem gemeinsamen Schirm gesteuert werden. Zwei Komponenten sind aus Sicht Gartners entscheidend für die Roadmap einer Data-driven Business Transformation:

  1. Data Literacy beschreibt den kompetenten Umgang mit Daten. Gartner nennt etwa die Fähigkeit, Daten im Kontext zu erfassen, anzupassen, zu verändern, zu präsentieren und zu interpretieren. Wichtig dabei seien auch das Verständnis der Datenquellen, die angewandten Analysetechniken und die Fähigkeit, Use Cases und Ziele zu beschreiben.
  2. Data Culture: Eine Datenkultur im Unternehmen zu etablieren bedeutet, die eigene Organisation so auszurichten, dass Mitarbeiter und Management Entscheidungen auf Basis von Daten und deren Auswertung treffen und nicht mehr auf Grundlage von eigenen Erfahrungen und dem Bauchgefühl.

Beide Aspekte hängen eng zusammen und können nicht losgelöst voneinander umgesetzt werden. Um aus Mitarbeitern „Information Worker“ zu machen, braucht es eine entsprechende Kultur im Unternehmen, die dafür einen Rahmen schafft. Umgekehrt lässt sich eine Datenkultur nicht einfach von oben herab verordnen und einer bestehenden Organisation überstülpen. Vielmehr lebt sie von der Motivation und den Freiheiten für die Mitarbeiter, mit Daten zu hantieren, zu experimentieren und so Erkenntnisse zu gewinnen, um neue Business-Optionen zu erschließen.

Hier den eigenen Weg zu finden fällt vielen Unternehmen schwer. Die Herausforderungen beginnen mit der Technik und den IT-Systemen. Gerade in den vergangenen Jahren sind im Zuge der verstärkten Nutzung von Cloud-Services und Trends wie dem Internet of Things (IoT) zahlreiche neue Datenquellen hinzugekommen – teilweise unkontrolliert, wenn Fachabteilungen selbstständig Dienste aus der Cloud gebucht haben, weil es ihnen über die eigene IT-Abteilung gefühlt zu langsam ging. Dazu kommt, dass immer mehr Daten von außen in die Unternehmen hineinfließen, sei es von Partnern, Zulieferern oder Kunden. Die Zeiten, in denen Anwenderunternehmen ihre Datenströme in einer zentralen Datenbank beziehungsweise einem Data Warehouse kanalisieren und kontrollieren konnten, sind jedenfalls vorbei.

Die Folgen: Zum einen explodiert die Menge der Daten, mit denen Betriebe heute hantieren müssen. Zum anderen wird die Datenlandschaft heterogener. Das betrifft nicht nur die Datentypen – strukturiert und unstrukturiert – sondern auch die Datenmodelle. Jedes IT-System hat sein eigenes Verständnis von Daten, eine eigene Semantik. Schwierig wird es, wenn Prozesse End-to-End über verschiedene Systeme abgebildet und dementsprechend Daten weitergereicht werden müssen. Genauso wie der Mensch muss auch das IT-System den richtigen Umgang mit Daten „verstehen“, ehe es daraus wertvolle Informationen machen kann.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Informationen realtime nutzen

Das lässt sich teilweise über APIs regeln, doch angesichts der ständigen Veränderungen von Softwaremodulen und Cloud-Diensten wird der Umgang mit Schnittstellen schnell komplex und unübersichtlich. Gleiches gilt für den Versuch, Daten mit ETL-Tools aus einer Vielzahl von Quellen in einem zentralen Data Warehouse zu sammeln und auszuwerten. Das dauert zu lange und wird den aktuellen Anforderungen nicht mehr gerecht. Heute geht es darum, Realtime-Informationen unmittelbar in den Prozessen zu nutzen.

An einer Harmonisierung von Datenmodellen dürfte also kein Weg vorbeiführen. Etliche Hersteller arbeiten bereits daran. Beispielsweise hat SAP seinen Kunden versprochen, die Datenmodelle innerhalb des eigenen Software­kosmos aus unterschiedlichen On-Premises-Lösungen und zugekauften Cloud-Services zu harmonisieren. Schließlich verspricht SAP seinen Kunden, ein intelligentes Unternehmen aufbauen zu können. Doch dafür braucht es die passenden Analysen direkt in den Prozessen, die jedoch nur mit einem einheitlichen Verständnis von Daten funktionieren. Während die Harmonisierung von Datenmodellen schon unter dem Dach eines einzelnen Herstellers nicht ganz einfach erscheint – SAP beschäftigt sich damit bereits seit geraumer Zeit –, wird die Sache zwischen den Systemen verschiedener Anbieter noch komplexer. Adobe, Microsoft und SAP haben deshalb die „Open Data Initiative“ (ODI) gegründet. Das Ziel: Auf Basis eines offenen Datenmodells sollen sich Daten zwischen den Lösungen der einzelnen Hersteller einfacher austauschen lassen.

Zu den technischen kommen jede Menge organisatorischer Hürden auf dem Weg zum Data-driven Enterprise. Zusätzlich zur Befähigung, mit Daten umzugehen, braucht es die richtige Motivation. Nach wie vor gibt es in vielen Unternehmen Datensilos, weil einzelne Mitarbeiter oder Abteilungen Daten horten und sich schwertun, ihre Bestände zu teilen. Manchmal haben sie gute Sicherheits- und Compliance-Argumente, manchmal fürchten sie aber auch nur um ihr Standing im Unternehmen und wollen ihre Position über die Datenkontrolle absichern. Derartige Silos aufzubrechen und eine offene Datenkultur einzuführen, ist absolut erfolgskritisch und muss von der Führung unterstützt und getragen werden.

Es muss gelingen, die Mitarbeiter zu motivieren, an einer Datenstrategie mitzuwirken. Jeder Beschäftigte ist heute ein Information Worker, postulierte Gartner jüngst in einem Trendreport und schrieb den Verantwortlichen ins Hausaufgabenheft, eine „Digital Workforce“ aufzubauen. Alle Mitarbeiter müssten Daten pflegen und teilen. Gerade letzteres müsse sich als kontinuierlicher Prozess im Betrieb etablieren. Noch immer klagen viele Verantwortliche über eine schlechte Daten­qualität, was letzten Endes sämtlichen Bemühungen in Richtung fortgeschrittener Datenanalysen zuwiderläuft.

Sicherheit geht vor

In Sachen Organisation gilt es auch zu regeln, wer auf welche Daten zugreifen darf. Die Sicherheit hinsichtlich Berechtigungskonzepten und Authentifizierung wird heute immer wichtiger. Regelwerke wie die Europäische Datenschutzgrundverordnung (EU-DSGVO) setzen hier einen klar definierten Rahmen, wie mit sen­siblen Daten umzugehen ist. Wer dagegen ver­stößt, muss mit saftigen Strafen rechnen.

Angesichts all dieser Herausforderungen brauchen die Unternehmen ein Konzept und klare Verantwortlichkeiten. Hier kommt der Chief Data Officer als Dirigent im Daten- und Analytics-Konzert ins Spiel. In der Vergangenheit gab es unterschiedliche Versuche, die Daten­zuständigkeiten zu regeln. Da gab es „Data Owner“ oder „Data Stewards“, die sich um bestimmte Datentöpfe kümmern sollten – mehr oder weniger kontrolliert vom CIO und den IT-Verantwortlichen. Manchmal wurden auch die Rechts- oder Finance-Abteilungen damit betraut, waren aber meist technisch überfordert. Diese unklaren und sich ständig verschiebenden Verantwortlichkeiten sind wohl mit ein Grund dafür, warum viele Betriebe heute erst einmal Ordnung schaffen müssen. Diese Aufgabe fällt immer häufiger den Chief Data Officers (CDOs) zu, die derzeit vielerorts eingesetzt werden. Auf den ersten Blick sicher keine leichte Aufgabe, aber auch eine Chance, sich im Unternehmen zu profilieren. Dazu muss es ihnen gelingen, eine funktionierende Datenstrategie fürs Business auf die Beine zu stellen und am Laufen zu halten.

Mit den durch die Coronakrise beschleunigten Veränderungen in Sachen Digitalisierung veränderte sich die Rolle der CDOs schnell und grundlegend, sagt Gartner. Längst geht es für sie nicht mehr nur um das Thema Daten. Vielmehr liege es in ihrer Verantwortung, den Gesamtkomplex Data & Analytics (D&A) neu zu ordnen. Die Analysten gehen davon aus, dass bis 2024 rund drei Viertel aller großen Unternehmen weltweit sogenannte D&A Center of Excellence eingerichtet haben. Die wichtigsten Services, die von diesen erwartet werden, sind:

  • Sicherstellen von Data Governance und Datenqualität (64 Prozent),
  • Datenintegration und -zugriff (60 Prozent) und
  • Unterstützung von Self-Service-Analytics und -BI (58 Prozent).

So sollte ein Datenchef agieren

Damit diese Einheiten funktionieren und die erhofften Resultate liefern, gilt es Gartner zufolge einige wichtige Punkte zu beachten:

  • Die CDOs müssten sich auf die Business Transformation fokussieren und dürften sich nicht auf administrative Aufgaben wie das Erstellen von Reports oder Hausmeisteraufgaben rund um das Ablegen und Verarbeiten von Daten reduzieren lassen.
  • Ein Data-driven Enterprise muss eine Balance finden zwischen zentraler Kontrolle, was mit Daten passiert – hier geht es um Qualität, Konsistenz und Governance –, und dezentralen Freiheiten für die Mitarbeiter, was das Teilen von Daten und Experimentieren betrifft, um Agilität und Innovation voranzutreiben.
  • Ein CDO muss sich auf dem C-Level gut vernetzen. Gerade wenn es um die Einbindung von Cloud-Ressourcen geht, braucht es die Abstimmung mit dem CIO, im Zusammenhang mit neuen Abrechnungsmodellen in der Cloud auch die Kooperation mit dem Finanzchef. Gartner zufolge gingen 2019 bereits 30 Prozent des weltweiten Markts für Datenbankmanagement-Systeme (DBMS) auf das Konto von Cloud-Lösungen. Drei Jahre zuvor waren es gerade einmal sieben Prozent. Die Analysten gehen davon aus, dass sich die Infrastruktur für D&A in die Cloud verlagern wird.
  • Data-driven darf nicht an den Unternehmensgrenzen Halt machen. Die Verantwort­lichen müssen Daten-Ökosysteme im Blick haben. Das heißt, bereit zu sein, die eigenen Daten zu teilen, und die Augen offen zu halten, wo rund um das eigene Unternehmen lohnenswerte Datentöpfe liegen, die die eigenen Reservoirs noch aufwerten könnten. Das können Daten von Partnern oder Kunden, aber auch öffentlich zugängliche Open Data sein. Gerade Behörden und Einrichtungen der öffentlichen Hand sind hierzulande angehalten, ihre Daten auch der Wirtschaft zur Verfügung zu stellen.
  • Data-driven bedeutet auch, dass Manager umdenken müssen. Das Gros der Verantwortlichen trifft seine Entscheidungen nach wie vor auf Basis von persönlichen Erfahrungen und Bauchgefühl. Doch gerade in Zeiten starker Veränderungen, in denen Vieles nicht mehr so funktioniert wie früher, kann das riskant sein. Sicher können auch datenbasierte Entscheidungen nicht jedes Risiko ausschalten, zumal auch hier Daten aus der Vergangenheit verwertet werden. Doch Advanced- oder Predictive-Analytics-Methoden sind heute so ausgereift, dass sich zukünftige Entwicklungen unter verschiedensten Parametern simulieren lassen. Das kann bei vielen Entscheidungen helfen.

Es gibt viele Möglichkeiten, eine passende Datenstrategie für den eigenen Betrieb zu entwickeln. Wichtig ist, dass Unternehmen nicht mehr abwarten, sondern anfangen und dabei vom Büro­angestellten bis zum CEO alle Perspektiven berücksichtigen. Die Datenkultur wird auf Dauer den Unterschied machen. Sie setzt den Rahmen für die ein­zusetzende Technik, und sie motiviert die Mitarbeiter, anhand von Daten zu entscheiden.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

*Martin Bayer: Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP; Betreuung von News und Titel-Strecken in der Print-Ausgabe der COMPUTERWOCHE.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*