Predictive Analytics: Big Data ist bald ein Milliardenmarkt

Eine Podiumsdiskussion mit Anbietern, Analystem und einem Data-Warehous-Analytiker sollte klären, was heute schon möglich und künftig wahrscheinlich ist. [...]

Was ist eigentlich Big Data? Auf einer Podiumsdiskussion in München versuchte sich Carlo Velten, Senior Advisor bei der Experton Group, kürzlich an einer Eingrenzung des Themas, mit dem laut Bitkom 86 Prozent der deutschen Bevölkerung noch nichts Rechtes anzufangen wissen. „Big Data beschreibt die industrielle Revolution der Daten“, so die Sicht der Experton-Analysten, „das ist die Verwandlung von Daten in ein Produkt.“
Tatsächlich lässt sich seit Jahren ein gewaltiges Anwachsen der auswertbaren Daten beobachten. Treiber sind laut Velten vor allem vier Phänomene: Mobile Apps und Location-based Services, Cloud Computing und SaaS, Social Media sowie Sensoren und Maschine-zu-Maschine-Kommunikation.
Diese Quellen sprudeln schon eine Weile, aber die Geschwindigkeit und Intensität der Datenproduktion wächst exponenziell. Und seit Kurzem gibt es auch Datenbanksysteme und Analyse-Tools, mit denen sie sich zu Informationen verdichten lassen.
Schon in diesem Jahr wird der deutsche Markt für Big-Data-Systeme (Hardware, Software und Services) einer Experton-Studie zufolge bei mehr als 600 Millionen Euro liegen. 2014 dürfte er knapp die Eine-Milliarde-Euro-Grenze verfehlen. Wenn er im selben Maße weiterwächst, also um rund 30 Prozent im Jahr, summiert er sich 2016 auf etwa 1,7 Milliarden Euro.
WOHER KOMMT DAS INTERESSE AN BIG DATA?
Die neue Qualität der Big-Data-Analyse stellte Dirk Mahnkopf, Business Advisor beim Analysesoftware-Spezialisten SAS Institute, heraus: „Business Intelligence ist Vergangenheitsbetrachtung; Big Data bedeutet, die Gegenwart zu verstehen und die Zukunft zu steuern.“
Als Beispiel beschrieb Mahnkopf eine Ursache-Wirkungs-Kette, wie sie bei schönem Wetter auftritt: Wenn die Metereologen steigende Temperaturen vorhersagen, müssen sich nicht nur die Betreiber von Eiscafés auf höhere Nachfrage einstellen, sondern auch die Logistiker in der Zuckerindustrie ihre Vorräte aufstocken, damit kein mögliches Geschäft verloren geht.
REIBUNGSLOSER FLUGHAFENBETRIEB
Ein anderes Beispiel führte Stefan Sabatzki, Data-Warehouse-Analyst beim Flughafenbetreiber Fraport, ins Feld. Er bemüht sich vor allem um einen reibungslosen Flug- und Terminalbetrieb. „Wir wollen nicht den gläsernen Passagier“, sagte er, „sondern den zufriedenen Kunden.“
Das sei erreicht, wenn der Passagier kurze Wege und keine Wartezeiten hat. Deshalb misst Fraport die Passagierströme mit Hilfe von Sensortechnik, ergänzt sie durch Flug- und Standortpläne sowie verfügbare Personalressourcen und „verwurstet“ sie mit Hilfe komplexer statistischer Modelle, wie Sabatzki ausführt.
Am Ende lasse sich ziemlich genau vorhersagen, wo ein Flugzeug optimalerweise andocken sollte oder wann und wo wie viel Personal für die Abfertigung benötigt werde – und zwar beinahe in Echtzeit, berichtet der Data-Warehouse-Spezialist stolz. Das Fraport-Warehouse sei bereits 2005 in Kooperation mit SAS und EMC aufgebaut worden. Heute arbeite es „near realtime“.
Einen Vorschlag, wie Fraport aus diesen Informationen weiteren Umsatz generieren könnte, warf Dirk Heitmann, Director of Smarter Analytics bei der IBM Deutschland, in die Runde: Es sei doch möglich, die Pacht für die Standflächen der Händler danach zu berechnen, wie häufig potenziell finanzkräfige Passagiere dort vorbeimüssten. „Das Potenzial ist mannigfaltig“, räumte Sabatzki ein, „aber noch nutzen wir die Daten nicht für diese Zwecke.“
Nach Heitmanns Ansicht fehlt es in vielen Unternehmen nicht an der Technik, sondern an der strategischen Vision für Big Data. Das bestätigte auch Günther Stürner, Vice President Sales Consulting bei Oracle Deutschland: „Wir können den Unternehmen keine Ideen oktroyieren.“ Das Verständnis und die Ideen müssten schon aus den Anwenderbetrieben selbst kommen: „Die Entwicklung der entsprechenden Datenmodelle wird eine unternehmensindividuelle Angelegenheit.“
VON DER EIGENEN MEDIZIN GEKOSTET
Die Anbieter nehmen gern einmal selbst einen Schluck von der Medizin, die sie ihren Kunden verordnen. So jedenfalls der Speicherhersteller EMC: „Wir nutzen Big-Data-Analysen, um vorhersagen zu können, wann unsere Platten beim Anwender möglicherweise kaputtgehen“, verriet Dinko Eror, Senior Director Global Services bei EMC.
Was mit einer Big-Data-tauglichen Speichertechnik möglich ist, stellte auch Anton Hofmeier heraus, Geschäftsleitungsmitglied der Software AG und verantwortlich für den Vertrieb der In-Memory-Datenbank Terracotta: Der Online-Bezahldienst Paypal könne heute zum Zweck der Betrugserkennung innerhalb von 150 Millisekunden mehr als 1000 Regeln anwenden; mit konventioneller Datenbanktechnik seien es nur 50.
* Karin Quack ist Redakteurin der deutschen Computerwoche.


Mehr Artikel

News

9 Mythen über BigQuery-Backups

BigQuery ist ein vollständig verwaltetes Data Warehouse von Google für Analysen im Petabyte-Bereich und kommt vielerorts zum Einsatz. Viele IT-Fachkräfte glauben, dass BigQuery automatisch eine vollständige Sicherung gewährleistet, doch das ist ein gefährlicher Irrtum. […]

News

Mikrosegmentierung als Basis für Zero Trust

90 Prozent der von Zero Networks befragten IT- und Sicherheitsexperten sehen Zero Trust als entscheidend für die Verbesserung ihrer Cybersicherheit an. 75 Prozent sind der Meinung, dass Mikrosegmentierung „sehr“ oder „äußerst“ wichtig ist, um Zero Trust zu erreichen. Nur fünf Prozent setzen jedoch Mikrosegmentierung bereits ein. […]

Jens Hungershausen, DSAG-Vorstandsvorsitzender (c) Deutschsprachige SAP-Anwendergruppe e. V. (DSAG)
News

DSAG-Investitionsreport 2025

Auch in diesem Jahr hat die Deutschsprachige SAP-Anwendergruppe e. V. (DSAG) wieder nach den Investitionsplanungen der Unternehmen in Deutschland, Österreich und der Schweiz gefragt. Zentrale Ergebnisse: Die generelle Investitionsbereitschaft in IT-Lösungen und auch in SAP-Lösungen steigt weiter. […]

News

Ein Schritt zu mehr digitaler Souveränität für Europa

CISPE (Cloud Infrastructure Services Providers in Europe) und Gaia-X integrieren das CISPE Gaia-X Digital Clearing House in das Gaia-X-Ökosystem. Das ermöglicht es Cloud-Kunden, Dienste auszuwählen und zu erwerben, die nachweislich den im Gaia-X Compliance-Dokument (Release 24.11) beschriebenen Richtlinien entsprechen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*