Wer hebt den Datenschatz zuerst?

Daten sind ein Schatz, der heute in fast jeder Organisation zur Verfügung steht. Doch um ihn zu bergen, muss man aus den unendlichen Mengen die relevanten Informationen herausfiltern und daraus Handlungsempfehlungen ableiten. [...]

Big-Data-Analysen bieten für Unternehmen zahlreiche Chancen, Wettbewerbsvorteile zu erlangen.
Big-Data-Analysen bieten für Unternehmen zahlreiche Chancen, Wettbewerbsvorteile zu erlangen. (c) Gina Sanders / Fotolia

Viele Unternehmen stehen vor der Frage, wie sie aus Big-Data-Projekten einen wirklichen Mehrwert schöpfen können. Ein strukturiertes Vorgehen ist gefragt – von der ersten Überlegung bis zur fortlaufenden Analyse. Mit dem folgenden Ratgeber in sechs Schritten lässt sich der Datenschatz haben.
Big-Data-Analysen bieten für Unternehmen zahlreiche Chancen, Wettbewerbsvorteile zu erlangen. Sie gewinnen mehr Transparenz und können Entscheidungen auf fundierter Basis treffen. So gelingt es, Prozesse zu optimieren, Kosten einzusparen, Geschäftsfelder auszubauen oder ganz neue Geschäftsmodelle zu entwickeln. Wer in der Lage ist, möglichst schnell und zielgerichtet Daten auszuwerten, hat in Zukunft die Nase vorn. Wer dagegen zu lange mit der Digitalisierung zögert, wird im harten globalen Wettbewerb nur noch schwer mithalten können. Deshalb denken so viele Unternehmen hierzulande darüber nach, wie sie Big-Data-Projekte erfolgreich durchführen können. Die tatsächliche Umsetzung gestaltet sich jedoch oft schwierig. Die folgenden sechs Handlungsempfehlungen haben sich in der Praxis bewährt und können als Leitfaden dienen.

1. Das strategische Ziel definieren

Am Anfang steht das Ziel: Welche Herausforderungen hat das Unternehmen und wie kann Big Data Analytics helfen, diese zu adressieren? Welche Geschäftsfelder möchte man genauer unter die Lupe nehmen und vielleicht erweitern? Wohin orientiert man sich in Zukunft? Solche Überlegungen sollten zunächst auf Management-Ebene stattfinden. Die verschiedenen Fachbereiche und die IT-Abteilung setzen sich an einen Tisch und definieren die Ziele. Ein IT-Dienstleister kann dabei helfen, verschiedene Einsatzbereiche aufzuzeigen und aktuelle Trends vorzustellen. Zu den ersten Überlegungen zählt auch, die technischen Rahmenbedingungen zu diskutieren und die bestehende IT-Struktur zu analysieren. Aus den strategischen Zielen und dem technischen Status Quo ergeben sich die Anforderungen an das Big-Data-Projekt.

2. Die geeigneten Tools auswählen und implementieren

Im zweiten Schritt geht es darum, die geeigneten Technologien auszuwählen, um die zuvor ermittelten Anforderungen umzusetzen. Oft ist es sinnvoll, bestehende Analysewerkzeuge zu erweitern oder miteinander zu kombinieren. Selten ist eine Lösung von der Stange wirklich gut geeignet. Die besten Ergebnisse erzielt man, wenn man Tools individuell und passgenau auf den Anwendungsfall abgestimmt zusammenstellt. Dafür empfiehlt sich die Zusammenarbeit mit einem IT-Dienstleister, der den Markt gut kennt und herstellerunabhängig agiert. Zeiteffizient und kostengünstig lassen sich neue Bausteine in die bestehende IT-Landschaft integrieren, wenn man sie zumindest teilweise in die Cloud auslagert. Viele Unternehmen setzen dabei auf hybride Cloud-Modelle, die eine lokale Datenhoheit gewährleisten und gleichzeitig skalierbar sind.

3. Datenquellen erfassen und Daten aufbereiten

In jedem Unternehmen gibt es eine Vielzahl an Datenquellen. In einer Bestandsaufnahme analysieren die Verantwortlichen, welche davon für das Projektziel relevant sind. Viele Aspekte spielen eine Rolle, zum Beispiel in welcher Form die Daten vorliegen, wie sie sich extrahieren lassen und wie sie in den zentralen Datenpool, häufig Data Lake oder klassisch Data Warehouse genannt, überführt werden können. Anschließend müssen die Daten konsolidiert, modelliert und transformiert werden, sodass sie vergleichbar sind und für die Analyse zur Verfügung stehen. Dazu zählt unter anderem das Bereinigen von fehlerhaften oder doppelten Datensätzen, die in verschiedenen Vorsystemen vorliegen. Häufig werden zum Beispiel Stammdaten in mehreren Bereichen gehalten, stimmen aber nicht überein. Außerdem liegen Daten in Vorsystemen oft in ganz unterschiedlicher Form oder verschiedenen Sprachen vor. Diese müssen zunächst in ein einheitliches Format übersetzt werden.

4. Daten analysieren und Ergebnisse auswerten

Die konsolidierten Daten stehen nun zentral zur Analyse bereit. Mithilfe eines Dashboards erhalten die Fachbereiche die Möglichkeit, in einer leicht zu bedienenden, grafischen Umgebung freie Analysen durchzuführen und klassische Reports zu erstellen. Auch die Erstellung von Plan- / Ist-Vergleichen und Zeitreihen gehören zu dieser Art der Auswertung. Solche deskriptiven Standard-Analysen werten in der Regel die Vergangenheit aus und liefern Zahlen zur aktuellen Situation. Sie hangeln sich entlang bekannter Pfade, Erfahrungswerte und typischer Analysemuster. Aufgewertet werden diese häufig durch ein integriertes Planungssystem, das die Berechnung von Planungsmodellen und Szenarien auf Basis der Vergangenheitsdaten erlaubt. Damit wird ein strategisches und vorausschauendes Agieren der Fachbereiche ermöglicht.

5. Die Königsdisziplin: statistische Analysen

Die Königsdisziplin ist der Blick in die Zukunft: Welche auf Prognose-Modellen beruhenden prädiktiven oder gar präskriptiven Handlungsempfehlungen lassen sich aus den Daten ziehen? Dafür setzen Data Scientists statistische Analysen ein, was eher einem experimentellen, kreativen Ansatz entspricht. Oftmals weiß man anfangs noch gar nicht, welche Erkenntnisse man letztendlich vielleicht gewinnen wird. Der Data Scientist wählt eine oder mehrere Variablen aus, bestimmt das statistische Verfahren und lässt das System nach Zusammenhängen suchen. Unternehmen können auf diese Weise zum Beispiel erforschen, mit welchen Variablen ihr Umsatz in Verbindung steht. Mögliche Aspekte sind etwa die Kundenzufriedenheit, die globale Investitionsfreudigkeit, die Saison oder das Wetter. Für manche Analysen kommen zehn, zwanzig oder auch hundert Attribute in Frage. Das System errechnet nun: Der Umsatz steigt oder sinkt, wenn Attribute A, B und C zusammentreffen. Ein Unternehmen kann mithilfe solcher Analysen zum Beispiel als Handlungsempfehlung ableiten, dass es zu bestimmten Zeiten den Lagerbestand aufstocken muss, um Lieferengpässe zu vermeiden.

6. Weitere Mehrwerte herausfiltern

Den größten Mehrwert schöpfen Unternehmen, wenn sie statistische Analysen als fortlaufenden Prozess betreiben. Die entscheidende Frage lautet: Was passiert, wenn bestimmte Ereignisse eintreten oder Attribute zusammentreffen und wie sollte man dann am besten reagieren. Es lohnt sich, immer wieder neue Analysemuster auszuprobieren und bestehende zu modifizieren. Der aktuelle Datenbestand sollte kontinuierlich auf neue Möglichkeiten überprüft werden, aus denen sich Handlungsempfehlungen ergeben. Solche Prozesse lassen sich auch automatisieren. Statistische Modelle können und müssen trainiert werden. Data Scientists stehen dabei fortwährend vor der Herausforderung, anhand neuer Erkenntnisse weiter nachzujustieren, um die bestmöglichen und schärfsten Ergebnisse zu erzielen.

Fazit: Prozesse kontinuierlich anpassen

Mit zielgerichteten Big-Data-Analytics-Projekten schöpfen Unternehmen Mehrwert aus ihrer Datenflut. Dabei spielt die richtige Strategie eine ebenso wichtige Rolle wie die geeigneten Tools. Analysen können nicht nur für Reports herangezogen werden, sondern ermöglichen auch Handlungsempfehlungen für die Zukunft. Das größte Potenzial steckt in statistischen Analysen. Wer sie als fortlaufenden Prozess versteht und kontinuierlich anpasst, profitiert am meisten und verschafft sich einen wichtigen Vorsprung gegenüber dem Wettbewerb.

Der Autor Martin Clement ist Senior Solution Architect Analytics & Data bei Axians IT Solutions.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*