Wer hebt den Datenschatz zuerst?

Daten sind ein Schatz, der heute in fast jeder Organisation zur Verfügung steht. Doch um ihn zu bergen, muss man aus den unendlichen Mengen die relevanten Informationen herausfiltern und daraus Handlungsempfehlungen ableiten. [...]

Big-Data-Analysen bieten für Unternehmen zahlreiche Chancen, Wettbewerbsvorteile zu erlangen.
Big-Data-Analysen bieten für Unternehmen zahlreiche Chancen, Wettbewerbsvorteile zu erlangen. (c) Gina Sanders / Fotolia

Viele Unternehmen stehen vor der Frage, wie sie aus Big-Data-Projekten einen wirklichen Mehrwert schöpfen können. Ein strukturiertes Vorgehen ist gefragt – von der ersten Überlegung bis zur fortlaufenden Analyse. Mit dem folgenden Ratgeber in sechs Schritten lässt sich der Datenschatz haben.
Big-Data-Analysen bieten für Unternehmen zahlreiche Chancen, Wettbewerbsvorteile zu erlangen. Sie gewinnen mehr Transparenz und können Entscheidungen auf fundierter Basis treffen. So gelingt es, Prozesse zu optimieren, Kosten einzusparen, Geschäftsfelder auszubauen oder ganz neue Geschäftsmodelle zu entwickeln. Wer in der Lage ist, möglichst schnell und zielgerichtet Daten auszuwerten, hat in Zukunft die Nase vorn. Wer dagegen zu lange mit der Digitalisierung zögert, wird im harten globalen Wettbewerb nur noch schwer mithalten können. Deshalb denken so viele Unternehmen hierzulande darüber nach, wie sie Big-Data-Projekte erfolgreich durchführen können. Die tatsächliche Umsetzung gestaltet sich jedoch oft schwierig. Die folgenden sechs Handlungsempfehlungen haben sich in der Praxis bewährt und können als Leitfaden dienen.

1. Das strategische Ziel definieren

Am Anfang steht das Ziel: Welche Herausforderungen hat das Unternehmen und wie kann Big Data Analytics helfen, diese zu adressieren? Welche Geschäftsfelder möchte man genauer unter die Lupe nehmen und vielleicht erweitern? Wohin orientiert man sich in Zukunft? Solche Überlegungen sollten zunächst auf Management-Ebene stattfinden. Die verschiedenen Fachbereiche und die IT-Abteilung setzen sich an einen Tisch und definieren die Ziele. Ein IT-Dienstleister kann dabei helfen, verschiedene Einsatzbereiche aufzuzeigen und aktuelle Trends vorzustellen. Zu den ersten Überlegungen zählt auch, die technischen Rahmenbedingungen zu diskutieren und die bestehende IT-Struktur zu analysieren. Aus den strategischen Zielen und dem technischen Status Quo ergeben sich die Anforderungen an das Big-Data-Projekt.

2. Die geeigneten Tools auswählen und implementieren

Im zweiten Schritt geht es darum, die geeigneten Technologien auszuwählen, um die zuvor ermittelten Anforderungen umzusetzen. Oft ist es sinnvoll, bestehende Analysewerkzeuge zu erweitern oder miteinander zu kombinieren. Selten ist eine Lösung von der Stange wirklich gut geeignet. Die besten Ergebnisse erzielt man, wenn man Tools individuell und passgenau auf den Anwendungsfall abgestimmt zusammenstellt. Dafür empfiehlt sich die Zusammenarbeit mit einem IT-Dienstleister, der den Markt gut kennt und herstellerunabhängig agiert. Zeiteffizient und kostengünstig lassen sich neue Bausteine in die bestehende IT-Landschaft integrieren, wenn man sie zumindest teilweise in die Cloud auslagert. Viele Unternehmen setzen dabei auf hybride Cloud-Modelle, die eine lokale Datenhoheit gewährleisten und gleichzeitig skalierbar sind.

3. Datenquellen erfassen und Daten aufbereiten

In jedem Unternehmen gibt es eine Vielzahl an Datenquellen. In einer Bestandsaufnahme analysieren die Verantwortlichen, welche davon für das Projektziel relevant sind. Viele Aspekte spielen eine Rolle, zum Beispiel in welcher Form die Daten vorliegen, wie sie sich extrahieren lassen und wie sie in den zentralen Datenpool, häufig Data Lake oder klassisch Data Warehouse genannt, überführt werden können. Anschließend müssen die Daten konsolidiert, modelliert und transformiert werden, sodass sie vergleichbar sind und für die Analyse zur Verfügung stehen. Dazu zählt unter anderem das Bereinigen von fehlerhaften oder doppelten Datensätzen, die in verschiedenen Vorsystemen vorliegen. Häufig werden zum Beispiel Stammdaten in mehreren Bereichen gehalten, stimmen aber nicht überein. Außerdem liegen Daten in Vorsystemen oft in ganz unterschiedlicher Form oder verschiedenen Sprachen vor. Diese müssen zunächst in ein einheitliches Format übersetzt werden.

4. Daten analysieren und Ergebnisse auswerten

Die konsolidierten Daten stehen nun zentral zur Analyse bereit. Mithilfe eines Dashboards erhalten die Fachbereiche die Möglichkeit, in einer leicht zu bedienenden, grafischen Umgebung freie Analysen durchzuführen und klassische Reports zu erstellen. Auch die Erstellung von Plan- / Ist-Vergleichen und Zeitreihen gehören zu dieser Art der Auswertung. Solche deskriptiven Standard-Analysen werten in der Regel die Vergangenheit aus und liefern Zahlen zur aktuellen Situation. Sie hangeln sich entlang bekannter Pfade, Erfahrungswerte und typischer Analysemuster. Aufgewertet werden diese häufig durch ein integriertes Planungssystem, das die Berechnung von Planungsmodellen und Szenarien auf Basis der Vergangenheitsdaten erlaubt. Damit wird ein strategisches und vorausschauendes Agieren der Fachbereiche ermöglicht.

5. Die Königsdisziplin: statistische Analysen

Die Königsdisziplin ist der Blick in die Zukunft: Welche auf Prognose-Modellen beruhenden prädiktiven oder gar präskriptiven Handlungsempfehlungen lassen sich aus den Daten ziehen? Dafür setzen Data Scientists statistische Analysen ein, was eher einem experimentellen, kreativen Ansatz entspricht. Oftmals weiß man anfangs noch gar nicht, welche Erkenntnisse man letztendlich vielleicht gewinnen wird. Der Data Scientist wählt eine oder mehrere Variablen aus, bestimmt das statistische Verfahren und lässt das System nach Zusammenhängen suchen. Unternehmen können auf diese Weise zum Beispiel erforschen, mit welchen Variablen ihr Umsatz in Verbindung steht. Mögliche Aspekte sind etwa die Kundenzufriedenheit, die globale Investitionsfreudigkeit, die Saison oder das Wetter. Für manche Analysen kommen zehn, zwanzig oder auch hundert Attribute in Frage. Das System errechnet nun: Der Umsatz steigt oder sinkt, wenn Attribute A, B und C zusammentreffen. Ein Unternehmen kann mithilfe solcher Analysen zum Beispiel als Handlungsempfehlung ableiten, dass es zu bestimmten Zeiten den Lagerbestand aufstocken muss, um Lieferengpässe zu vermeiden.

6. Weitere Mehrwerte herausfiltern

Den größten Mehrwert schöpfen Unternehmen, wenn sie statistische Analysen als fortlaufenden Prozess betreiben. Die entscheidende Frage lautet: Was passiert, wenn bestimmte Ereignisse eintreten oder Attribute zusammentreffen und wie sollte man dann am besten reagieren. Es lohnt sich, immer wieder neue Analysemuster auszuprobieren und bestehende zu modifizieren. Der aktuelle Datenbestand sollte kontinuierlich auf neue Möglichkeiten überprüft werden, aus denen sich Handlungsempfehlungen ergeben. Solche Prozesse lassen sich auch automatisieren. Statistische Modelle können und müssen trainiert werden. Data Scientists stehen dabei fortwährend vor der Herausforderung, anhand neuer Erkenntnisse weiter nachzujustieren, um die bestmöglichen und schärfsten Ergebnisse zu erzielen.

Fazit: Prozesse kontinuierlich anpassen

Mit zielgerichteten Big-Data-Analytics-Projekten schöpfen Unternehmen Mehrwert aus ihrer Datenflut. Dabei spielt die richtige Strategie eine ebenso wichtige Rolle wie die geeigneten Tools. Analysen können nicht nur für Reports herangezogen werden, sondern ermöglichen auch Handlungsempfehlungen für die Zukunft. Das größte Potenzial steckt in statistischen Analysen. Wer sie als fortlaufenden Prozess versteht und kontinuierlich anpasst, profitiert am meisten und verschafft sich einen wichtigen Vorsprung gegenüber dem Wettbewerb.

Der Autor Martin Clement ist Senior Solution Architect Analytics & Data bei Axians IT Solutions.


Mehr Artikel

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*