Big-Data-Implementierung in Österreich

Was ist unter Big Data zu verstehen und wieviel Potenzial hat die Technologie in einem KMU-Land wie Österreich? Eine IDC-Befragung unter 150 heimischen CIO und eine Begriffsdefinition liefern Antworten auf diese Fragen. [...]

Big Data ist in aller Munde. Es stellt sich jedoch die zentrale Frage, was Big Data genau ist. Einfach gesagt ist eine Anwendung oder ein Anwendungsfall dann Big Data, wenn Daten zum Problem werden. Diese Definition ist allerdings noch nicht ausreichend. In Verbindung mit Big Data werden oft die vier V’s genannt – diese sind durch folgende Eigenschaften charakterisiert:

  • Volume: Die generierte Datenmenge ist in den letzten Jahren enorm gestiegen.
  • Velocity: Analyse von immer mehr Daten in immer kürzeren Zeitfenstern.
  • Variety: Enorme Vielfalt an Datenformaten (Arbitrary–> Relational > Freitext).
  • Value: Generierung von Mehrwert aus Daten. Hier stellt sich die Frage, wie man die Potenziale nutzen kann.

Bei Big Data ist es auch wichtig zu wissen, dass es sich nicht um eine Technologie handelt, sondern vielmehr ein Konzept darstellt. Man kann nicht einfach seine Big-Data-Anwendung wie ein Betriebssystem installieren. Big Data besteht aus einem wesentlich komplexeren Technologie-Stack, welcher im Folgenden beschrieben wird.

Auf der untersten Ebene dieses Technologie-Stacks befindet sich „Big Data Management“. Hierbei kommt die Hardware, die Speichersysteme an sich und auch Cloud-Lösungen zum Einsatz, welche für Big-Data-Anwendungsfälle verwendet werden. Im Grunde genommen handelt es sich hierbei um Rechenzentren.

Eine Stufe höher findet man nun die Big-Data-Plattformen. Diese Plattformen werden primär durch Apache Hadoop charakterisiert. Apache Hadoop ist eine sehr wichtige Plattform, jedoch nicht die einzige. Auf dieser Ebene geht es vielmehr um die skalierbaren Ausführungsplattformen.

Der 3. Layer ist der Big Data Analytics Layer. Hier kommen Dinge wie Machine Learning, Analysis, Data Warehousing und Predictive Analytics zum Einsatz. Am obersten Layer findet sich die Big Data Utilization. Dieser Layer wird primär durch die Visualisierung von Big-Data-Anwendungen bestimmt.

Wie man hier sehr gut erkennen kann, ist Big Data eine multidisziplinäre Kompetenz. Diese ist oftmals nicht in einer Person vereinbar, da man Infrastrukturgenie, Softwareentwickler, Top-Statistiker und Visualisierungsexperte sein muss. Ferner ist es auch wichtig, die richtigen Fragen zu stellen, um entsprechende Lösungen erstellen zu können.

BIG-DATA-MARKT IN ÖSTERREICH
IDC hat Anfang des Jahres unter fast 150 österreichischen CIO und IT-Managern eine Online-Umfrage durchgeführt, die den Status quo von Big Data in österreichischen Unternehmen erfassen und analysieren soll. 47 Prozent der befragten Unternehmen geben an, dass der Einsatz von Big-Data-Lösungen im Unternehmen ernsthaft diskutiert wird. Der Anteil jener Unternehmen, für die Big Data kein Thema ist, ist von 62 Prozent im Vorjahr auf 39 Prozent gesunken.

Vergleicht man 2013 mit dem Vorjahr, so stellt man fest, dass die Anzahl der Unternehmen, welche nicht an Big Data denken, stark zurückgegangen ist. Dies entspricht in etwa dem internationalen Trend, wobei IDC Research indiziert, dass in anderen Ländern (Deutschland, USA, CEMA) dieser Trend noch wesentlich stärker ist als hierzulande. Es ist davon auszugehen, dass Big Data im Jahr 2014 stark an Fahrt aufnehmen wird. Seitens der Enduser ist ein verstärktes Investment in diese Technologie unausweichlich, will man von den durch Big Data entstehenden Wettbewerbsvorteilen profitieren. Hemmfaktoren bestehen vor allem aufgrund der Novität der Technologie. Viele Unternehmen haben Angst vor der Komplexität der Anwendungen und fürchten, dass das interne Knowhow nicht ausreicht. Trotz oder wegen des Einsatzes von Cloud-Anwendungen für Big Data sind Hemmfaktoren für Skalierung und Bereitstellung stark zurückgegangen, wobei die Angst hinsichtlich der Sicherheit der Daten gestiegen ist. Wenn Anwender mit eigenen Lösungen erfolgreich sein möchten, so wird es notwendig sein, eine wesentliche Vertrauensbasis zu potenziellen Kunden zu schaffen. Heimische Unternehmen erwarten sich allgemein bessere Datenanalysen, um bestehende Analysen zu verbessern. Ebenso wichtig ist die Erkennung von Kaufmustern, was vor allem im Retail-Bereich zu Vorteilen führen kann.

Für 46 Prozent der befragten Unternehmen ist der Aufbau des Knowhows und das Verstehen der Prozesse jener Bereich, in dem der größte Handlungsbedarf besteht. Dahinter folgt der Aufbau der IT-Umgebung – 21 Prozent – für entsprechende Datenspeicherung und Analyse und die Auswahl der richtigen Software – 13 Prozent.

Es wird am angenommen, dass Big Data relativ hohen Einfluss auf die Analyse strukturierter Daten hat. Auch auf die abteilungsübergreifende Relevanz abseits der IT wird Big Data höherer Einfluss zugeschrieben. Nur durchschnittliche Auswirkungen von Big Data werden für die schnellere zukünftige Abschätzung von Entwicklungen erwartet.

Aktuell befindet sich Big Data in einem initialen Stadium. Die Einsatzentscheidung ist oftmals schon gefallen, es mangelt Endusern jedoch noch am Knowhow bzgl. Anbieter, Verfahren und Werkzeugen. Diesen Umstand gilt es seitens der Anbieter zu nutzen und Unternehmen über die zur Verfügung stehenden Tools und Werkzeuge im Zusammenhang mit Big Data zu informieren – Anbieter können sich so frühzeitig Wettbewerbsvorteile verschaffen.

Big Data ist eine abteilungsübergreifende Technologie. Das spiegelt sich auch in den Ergebnissen dieser Befragung wider und ist ein wichtiger Einflussfaktor für Enduser-Entscheidungen. Sehr bedeutend für Big Data ist die Analyse auch unstrukturierter Daten, die wesentlichen Einfluss auf die IT-Landschaft eines Unternehmens haben.

22 Prozent der befragten Unternehmen haben keine Ahnung, welches Datenvolumen im Unternehmen gespeichert wird! Fast 50 Prozent der Respondenten fallen in den Bereich 50-500 TB, nur vier Prozent speichern ein Volumen von über einem Petybyte.

VERARBEITETE DATENMENGE UND DATENWACHSTUM

In den letzten zwölf Monaten ist die im Unternehmen verarbeitete Datenmenge um 22 Prozent gewachsen, besonders Großunternehmen und der Public Sector liegen über dem Durchschnitt. Für die nächsten drei Jahre rechnen Unternehmen mit einem durchschnittlichen jährlichen Wachstum der Daten von 24 Prozent.

Viele IT-Verantwortliche haben gar keine Ahnung, wie viele Daten im Unternehmen vorhanden sind. Der Grund hierfür ist, dass oftmals noch keine Strategie hinsichtlich eines umfassenden Datenmanagements festgelegt wurde. Diese Strategien werden sich in den nächsten 12-24 Monaten entwickeln. In diesem Zusammenhang werden auch viele Verkaufsentscheidungen für Datenplattformen getroffen.

Das Datenwachstum wird durchschnittlich mit 22-24 Prozent pro Jahr angegeben. Dieser Wert liegt unter den Erwartungen der IDC. Es ist davon auszugehen, dass mit einer Strategie hinsichtlich des Datenmanagements dieser Wert in den nächsten Jahren stark steigen wird. Unternehmen werden Daten intelligenter und häufiger abspeichern, um sich wirtschaftliche Vorteile zu verschaffen.

50 Prozent der befragten Unternehmen finden, dass das Datenmanagement im Unternehmen eher großen Aufwand bedeutet. Mehr als drei Viertel – 77 Prozent – der Respondenten fallen in die Gruppe „eher großer bis großer Aufwand“.

Analog zu den Anbietern wird auch bei Big-Data-Technologien zuerst an SAP (HANA) gedacht. Gemeinsam mit Apache Hadoop und HPCC wurden diese Technologien am öftesten genannt. Die größte Bekanntheit für Big-Data-Anwendungen genießen SAP und IBM, vor allem SAP Hana ist bei Endusern sehr bekannt.

Selbst topgerankte Unternehmen können sich keine Atempause gönnen: Der Markt für Big-Data-Anwendungen ist noch sehr jung und daher stark umkämpft. Weitere Marketingaktivitäten sind notwendig, um den Vorsprung auszubauen und auch zu halten.

Unternehmen, die am österreichischen Markt aktiv sind, sollten jetzt stark in die Entwicklung und Vermarktung qualitativ hochwertiger Lösungen investieren. Strategie, effektives Marketing und Awareness Building können entscheidende Wettbewerbsvorteile darstellen. (pi/aw)


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

News

Startschuss für neues Studium „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln

Mit einem fortschrittlichen Konzept und praxisnaher Ausrichtung ist der neue Bachelor-Studiengang „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln der Fachhochschule Wiener Neustadt erfolgreich gestartet. Unter der Leitung von Dominik Hölbling erwartet die Studierenden eine Ausbildung mit Schwerpunkt auf moderne Softwaretechnologien und innovative Digitalisierungslösungen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*