Big Data in Österreich: Status Quo und Zukunft – Teil 2

Wie sieht es mit Big Data in Österreich aktuell aus? Welche Vorzeigeprojekte und innovativen Anwender gibt es hierzulande? Was könnte sich in diesem Bereich in den nächsten fünf Jahren ändern? Computerwelt.at hat bei 24 Experten nachgefragt. Hier finden Sie den zweiten Schwung an Antworten der Umfrageteilnehmer. [...]

Wolfgang Fahrnberger, Geschäftsführer pmOne in Österreich

Wie sieht die Big Data/Analytics-Nutzung am heimischen Markt aus und welche Vorzeigeprojekte oder innovative Anwender gibt es in diesem Bereich?

Der heimische Markt unterscheidet sich unserer Ansicht nach nicht wesentlich von den anderen europäischen Märkten. Wir bewegen uns in einem Bereich, in dem ein ROI sehr schwer zu ermitteln ist und wo es für Projekte und Innovationen in erster Linie eines braucht: Mut und „Gründergeist“. Eine Reihe von Unternehmen – aus unserem Kundenkreis sind das beispielsweise die Österreichische Post und ein App-Hersteller im Health- & Fitness-Bereich – schreiten hier voran und investieren in spannende Use Cases. Dazu gehören die Abbildung einer 360 Grad Kundenrundumsicht ebenso wie Kundensegmentierungen oder Kampagnenoptimierungen durch Advanced Analytics. Darüber hinaus gefragt sind die Abbildung und Analyse des kompletten Customer Journey sowie die durchgängige Darstellung eines Customer Life-time Value über alle Kunden.

Wie könnte der Big Data/Analytics-Alltag in fünf Jahren im Vergleich zu heute aussehen und welche Möglichkeiten wird es für Unternehmen und Anwender geben?

Wer das weiß, möge sich bitte direkt bei uns bewerben… Wir stecken gerade mitten in der Entwicklungsphase eines sehr spannenden und stark wachsenden Marktes. Schätzungen des Analystenhauses Gartner zufolge sind in den vergangenen beiden Jahren 2000 durch Venture Capital finanzierte Anbieter in diesem Technologieumfeld an den Start gegangen. Es ist also davon auszugehen, dass eine große Innovationswelle auf uns zurollt. Neben Klassikern wie Churn Rate-Analysen, Mailing-Optimierung oder Predictive Maintenance werden sich noch viele weitere innovative Use Cases entwickeln. Welche davon auf Dauer profitabel sind und den Anwenderunternehmen tatsächlich Nutzen stiften, wird sich in den nächsten Jahren herausstellen – ein spannender Prozess, bei dem die pmOne ihre Kunden mit großer Begeisterung und Innovationsgeist begleitet.

Robert Schmitz, Country Manager DACH von Qlik

Wie sieht die Big Data/Analytics-Nutzung am heimischen Markt aus und welche Vorzeigeprojekte oder innovative Anwender gibt es in diesem Bereich?

Der Big-Data-Hype wird mehr und mehr abklingen und einer realistischen Einschätzung bezüglich der tatsächlichen Analysemöglichkeiten der vielfachen neuen Datenquellen weichen, die außerhalb eines Unternehmens täglich generiert werden. Neue Datenquellen werden nicht mehr als fremdartig angesehen, sondern die Nutzung von Daten entwickelt sich hin zu einer umfassenden und komplexen Datenlandschaft aus mehreren Quellen und ermöglicht die Nutzung verschiedener, jeweils geeigneter Anwendungsfälle. Die höchste Wertschöpfung aus Entscheidungen lässt sich in den Knotenpunkten erzielen, wo traditionell BI-Daten – etwa finanzielle Transaktionen – und Big Data sich vermischen.
Laut einer Gartner-Studie stehen BI und Analytics noch immer ganz oben auf der Prioritätenliste der Investments von CIOs. Datenverbraucher werden zunehmend zu Informationsaktivisten. Statt Informationen nur zu konsumieren, befassen sich Anwender nun mit Datenvorbereitung und Data-Profiling. Ein offensichtliches Ergebnis dieses Informationsaktivismus ist, dass die Menschen visuelle Data Discovery nicht nur zur Erkundung von Geschäftsdaten nutzen, sondern auch für Themen, die sie privat interessieren. Auf diese Weise wird Visualisierung nun zu einer Art der Selbstdarstellung.
Durch das Erstellen visueller Apps stellen Anwender ihre Ansichten dar und lernen etwas über sich selbst, wenn sie sich aktiv mit den wachsenden Datenmengen beschäftigen. Dieser Trend wird in der zunehmenden Relevanz des „Quantified Self” sichtbar – sowohl auf individueller Ebene als auch im datengetriebenen Journalismus der Massenmedien. Dieser verändert die Art, wie Menschen öffentliche Daten nutzen, um zu verstehen, wie die Gesellschaft funktioniert.
Daten aus externen Quellen sorgen für besseren Zusammenhang. Es wird wichtiger denn je, Anwendern zu ermöglichen, eine breite Palette an Faktoren zu sehen, die für ihre Geschäftsaktivitäten relevant sein können. Mit der Möglichkeit, sowohl interne als auch externe Datenquellen miteinander zu kombinieren, haben Nutzer nun Zugang zu mehr Kontext rund um ihre Daten, was letztlich zu mehr Erkenntnissen und besseren Entscheidungen führt. Das Berücksichtigen von soziodemografischen Daten oder Standortdaten zur Analyse kann Unternehmen einfach und schnell dabei helfen, das Risiko für einige Managemententscheidungen zu senken.
LSG Sky Chefs setzt etwa Qlik Sense von Qlik ein, die Datenvisualisierungslösung von Qlik. Damit erhält das Catering-Unternehmen detaillierte Einsichten in für die Bereiche Corporate M&A and Subsidiaries relevante Daten. Durch den Einsatz von Qlik Sense konnte die Zeit zur Erstellung der jeweiligen Reports deutlich verringert und ihre Qualität optimiert werden. Daten können intuitiver und schneller analysiert und die Ergebnisse optisch ansprechend aufbereitet werden. Derzeit werden ca. 18 Millionen Datensätze mit Qlik Sense ausgewertet. Bei LSG Sky Chefs kommt Qlik Sense auch mobil zum Einsatz – so informiert sich das Management via iPads über aktuelle Fakten. Aus IT-Sicht sprachen die Performance, die Einfachheit in der Handhabung, die umfänglichen ETL- Funktionen sowie eine kurze „Time-to-Market“ für die Einführung von Qlik Sense. „Analyse- und Reporting-Applikationen können mit Qlik Sense weitaus schneller erstellt werden, als es mit unseren herkömmlichen BI Werkzeugen möglich war. Dadurch können wir früher und flexibler auf die sich verändernden Anforderungen an unser Unternehmen reagieren“, so Alexander Ziehn, Director Competence Center Finance & Reporting bei LSG Sky Chefs. Die Einführung einer Self-Service BI Lösung ermöglicht eine neue Art der Zusammenarbeit zwischen der IT und den Business Departments bei LSG Sky Chefs. „Es ist wirklich einfach, eine Qlik Sense Visualisierung an neue Anforderungen anzupassen. Wir nehmen im Fachbereich bereits selbst erste Anpassungen unserer Visualisierungen vor, was unsere Reaktionszeit auf sich stetig ändernde Fragestellungen erheblich verkürzt“, so Sven Guthmann, Manager Mergers & Acquisitions bei LSG Sky Chefs, der zu den ersten Anwendern von Qlik Sense im Unternehmen gehört.
Auch das internationale Modeunternehmen bonprix setzt Qlik Sense ein. Damit erhält das Handelsunternehmen, eine Tochter der Otto Group, detaillierte Einsichten in Daten aus dem Bereich Einkaufscontrolling. Mit der neuen Lösung soll dem Einkauf ermöglicht werden, hochflexible und dynamische Datenanalysen durchzuführen und diese aussagekräftig zu visualisieren. Interaktive Dashboards und Grafiken sorgen durch intuitive Self-Service-Analysen für Überblick und Transparenz. Die zentrale Applikation gibt bei bonprix Aufschluss über die Daten rund um die Vertriebsstatistik – etwa über alle Produkte, Produktgruppen, Saisonartikel etc. Insgesamt werden etwa 700 Millionen Datenzeilen ausgewertet. Für den Einsatz von Qlik Sense sprach neben den umfassenden Visualisierungsfunktionalitäten die webbasierte Technologie, die Flexibilität und Erweiterbarkeit sowie die Tatsache, dass Qlik Sense durch Web und APIs voll integrierbar in die bereits bei bonprix bestehenden Systeme ist. Überzeugt hat auch die Geschwindigkeit, mit der Daten aus einer Oracle-Datenbank eingebunden werden können. Ein weiterer Vorteil liegt darin, dass alle Datenanalysen ohne die Erstellung von Cubes möglich sind. Die Implementierung erfolgt durch den Qlik Expertise Partner akquinet AG, der mit seiner Sense Excel Integration zusätzlich überzeugen konnte. Sense Excel kombiniert als Add-on-Modul für Qlik Sense die Stärken von Microsoft Excel und die Vorteile von Qlik Sense zu einem benutzerfreundlichen und leistungsstarken Analysewerkzeug – ohne zusätzliche Hardware oder lange Implementierungszeiten.

Wie könnte der Big Data/Analytics-Alltag in fünf Jahren im Vergleich zu heute aussehen und welche Möglichkeiten wird es für Unternehmen und Anwender geben?

Laut einem Bericht von IDC werden bis zum Jahr 2020  die Datenbausteine auf der Erde die Zahl der Sterne im Universum übersteigen. Der Begriff „Big Data“ bezieht sich aber nicht alleine auf die Tatsache, dass es heute mehr Daten gibt als je zuvor. Zwar war die riesige Datenmenge namensgebend für „Big Data“, doch die Verschiedenartigkeit der Daten – etwa strukturierte und unstrukturierte Daten, Computerdaten, Webprotokolle oder Daten aus sozialen Netzwerken –  ist ausschlaggebend für die Komplexität von Big-Data-Technologien, aber auch deren riesiger Potential.
Entscheider werden vermehrt geteilte Analysen nutzen. Die Entwicklung der BI hat sich auf kleine Standardgeräte konzentriert, doch der Schwerpunkt wird sich nun auf sehr große (denken Sie an wandgroße) Touch-Geräte verlagern. So können Teams in Echtzeit durch gemeinsame Erkundung von Daten auf Entscheidungen hinarbeiten. Im Jahr 2015 war der dritthäufigste Grund dafür, keine Entscheidung zu treffen,  Meinungsverschiedenheiten unter Kollegen. Diese Arten kollaborativer Datenerfahrungen werden daher bedeuten, dass man gemeinsam an den Daten arbeitet, was zu einer effizienteren Entscheidungsfindung führt.
Die Datenkompetenz wird höher sein. Die Menschen werden in den nächsten fünf Jahren zwangsläufig mit mehr Formen von Datenvisualisierung vertraut werden. Sie werden die Erkenntnisse, die sich aus Diagrammen ergeben, besser sehen und nutzen können. Und, was vielleicht noch wichtiger ist: Das Bildungssystem wird ebenfalls entsprechend reagieren und  Analytik in Wirtschafts- und andere Kurse mit aufnehmen. Führende Unternehmen werden Datenkompetenz zur Pflicht machen, da sie erkennen, dass datenkompetentes Personal einen Wettbewerbsvorteil darstellt. Mehr datenkompetente Menschen bringen selbstverständlich auch eine gesteigerte Nachfrage nach Daten und mehr Anforderungen an dieselben mit sich.
Persönliche Analysen werden gang und gäbe. Das Verhalten, was sich in der Bewegung des „Quantified Self” beobachten lässt, mag jetzt noch sehr verschroben wirken, wird jedoch schnell zum Standard werden, wenn der Einzelne durch das Tracking von Daten von Diensten und Geräten „Daten über mich” analysiert, um sich selbst zu verbessern. Eine interessante Begleiterscheinung für Software-Anbieter ist hier, dass es sich um einen weiteren Konsumerisierungs-Trend handelt, der von persönlichen Vorlieben angetrieben wird und das Potential hin zu „BYOAT” („bring your own analytical tool”) birgt.
Mehr Menschen werden (endlich) vorausschauende Analysen nutzen. Heute, da die meisten Unternehmen über ein paar Mitarbeiter verfügen, die kompliziertere statistische Vorhersagen treffen können, ist sie nicht sehr weit verbreitet. Daten von Branchen-Analysten zeigen seit Jahren, dass weniger als 20 Prozent vorhersagende Analysen breiter verwenden (d.h. als Teil Ihrer BI-Projekte). Zwei Faktoren werden für die Überwindung dieser Hürde entscheidend sein: Der erste ist die Nutzung von Technologie, um Nicht-Statistiker ‚anzustupsen‘, indem ihnen automatisch wahrscheinliche Trends angezeigt werden. Zum Beispiel Liniendiagramme, die das am besten passende Modell nutzen, um drei darüber hinausgehende Perioden vorauszusagen, oder indem ihnen in Erzählform mitgeteilt wird, dass eine KPI zu einem bestimmten Datum aus dem Toleranzbereich fallen wird, oder anhand von Monte-Carlo-Simulationen in Analyse-Apps. Der zweite Faktor ist schlicht die breite Verfügbarkeit von Instrumenten, die die Erstellung vorhersagender Modelle unterstützen.
Der analytische Zeithorizont wird sich nach hinten ausdehnen. Das dramatische Sinken der Kosten für Datenspeicherung bedeutet, dass bis 2020 die Unternehmen Daten in zugänglicher, lesbarer Form vorliegen haben werden (d.h. nicht auf Sicherungsbändern), die in der Zeit weiter zurückreichen. Dies wird die algorithmische Erkennung und die Analyse tiefer Muster durch Analysieren der ‚langen‘ Vergangenheit ermöglichen. Dies könnte sich als nützlich erweisen, wenn der Analysezeitraum über Wirtschaftszyklen hinausreicht. Es hilft Unternehmen dabei, Geschichte nicht zu wiederholen.
Mehr Unternehmen werden Entscheidungsprüfungen durchführen. Laut den von Qlik gesammelten Daten überprüften 2015 nur 23% der Unternehmen routinemäßig die Ergebnisse geschäftlicher Entscheidungen. Das ist ein Problem angesichts der Tatsache, dass deren Hauptgrund für die Investition in BI darin besteht, ‚die Entscheidungsfindung zu verbessern‘. 2020 werden mehr Organisationen mehr Entscheidungen entwickeln. ‚Entscheidung‘ wird daher zu einem BI-Metadatentyp und somit analysierbar werden. So können Unternehmen erkennen, ob sie gute Entscheidungen treffen, wie Aufwand und Ertrag waren und vielleicht auch, welche Teams und Einzelpersonen die optimalen Entscheidungen treffen.

Dominik Jaeth, Country Manager Germany bei Qualysoft

Wie sieht die Big Data/Analytics-Nutzung am heimischen Markt aus und welche Vorzeigeprojekte oder innovative Anwender gibt es in diesem Bereich?

Telekommunikationsunternehmen machen sich aktuell Big Data-Technologien im Bereich der Churn Prevention zu Nutze. Mit Hilfe modernster Methoden werden Nutzungsdaten direkt an den Hot Spots erfasst und in Echtzeit ausgewertet. Diese CDR (Call Data Record) Informationen unterstützen die Mobilfunkanbieter bei der Optimierung der Netzqualität und somit der Kundenzufriedenheit.

Wie könnte der Big Data/Analytics-Alltag in fünf Jahren im Vergleich zu heute aussehen und welche Möglichkeiten wird es für Unternehmen und Anwender geben?

Derzeit herrscht in Europa noch große Skepsis in Hinblick auf die Analyse von personenbezogenen Daten. Eine diesbezügliche Verbesserung ist aber in Sicht und wir gehen davon aus, dass diese Bedenken in den nächsten 5-10 Jahren durch vermehrte Informationen deutlich zurückgehen werden.
Private Konsumenten werden in den nächsten Jahren mit einer Vielzahl an neuen Möglichkeiten konfrontiert werden. Unternehmen arbeiten schon jetzt darauf hin, die immensen Datenmengen die beispielsweise im Bereich des „Internet of Things“ entstehen, für zielgerichtete Kundenansprache zu nutzen. Im Enterprise-Bereich wird es mit Hilfe von Big Data / Analytics-Technologien massive Neuerungen in der Versicherungsbranche geben, ebenso wie im Sektor der erneuerbaren Energien und im Bereich des „predictive crime“.


Mehr Artikel

News

Schulungsbedarf in den Bereichen KI, Cybersecurity und Cloud

Der IT Skills & Salary Report 2024 unterstreicht den wachsenden Bedarf an Weiterbildung und Umschulung von Arbeitskräften, um mit dem technologischen Fortschritt Schritt zu halten. Künstliche Intelligenz steht bei Entscheidungsträgern ganz oben auf der Liste der Investitionsschwerpunkte, da hier die Team-Kompetenzen am niedrigsten eingestuft werden. […]

News

KI-gestützte Effizienzoptimierung im Lager

Die österreichische TeDaLoS GmbH, Anbieter von smarten Lagerstandsüberwachungssystemen, hat ein Kapital-Investment erhalten, mit dem das Unternehmen eine beschleunigte internationale Expansion und den Ausbau von KI-gestützten Lösungen zur Optimierung der Materialbewirtschaftung vorantreiben will. […]

Helmut Reich, Managing Director proALPHA Software Austria (c) Erich Reismann
Interview

ERP auf dem Weg zum Digital Twin

Die in einem ERP-System hinterlegten Daten spiegeln in der Regel die Wirklichkeit nur bedingt wider. Mit Hilfe der künstlichen Intelligenz soll sich das bald ändern. proALPHA entwickelt seine Kernapplikation im Zusammenspiel mit seiner schnell wachsenden ERP+-Familie in Richtung eines Digital Twin weiter. Das Ziel: die 1:1-Abbildung der realen Wirtschaftswelt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*