Predictive Analytics: Big Data ist bald ein Milliardenmarkt

Eine Podiumsdiskussion mit Anbietern, Analystem und einem Data-Warehous-Analytiker sollte klären, was heute schon möglich und künftig wahrscheinlich ist. [...]

Was ist eigentlich Big Data? Auf einer Podiumsdiskussion in München versuchte sich Carlo Velten, Senior Advisor bei der Experton Group, kürzlich an einer Eingrenzung des Themas, mit dem laut Bitkom 86 Prozent der deutschen Bevölkerung noch nichts Rechtes anzufangen wissen. „Big Data beschreibt die industrielle Revolution der Daten“, so die Sicht der Experton-Analysten, „das ist die Verwandlung von Daten in ein Produkt.“
Tatsächlich lässt sich seit Jahren ein gewaltiges Anwachsen der auswertbaren Daten beobachten. Treiber sind laut Velten vor allem vier Phänomene: Mobile Apps und Location-based Services, Cloud Computing und SaaS, Social Media sowie Sensoren und Maschine-zu-Maschine-Kommunikation.
Diese Quellen sprudeln schon eine Weile, aber die Geschwindigkeit und Intensität der Datenproduktion wächst exponenziell. Und seit Kurzem gibt es auch Datenbanksysteme und Analyse-Tools, mit denen sie sich zu Informationen verdichten lassen.
Schon in diesem Jahr wird der deutsche Markt für Big-Data-Systeme (Hardware, Software und Services) einer Experton-Studie zufolge bei mehr als 600 Millionen Euro liegen. 2014 dürfte er knapp die Eine-Milliarde-Euro-Grenze verfehlen. Wenn er im selben Maße weiterwächst, also um rund 30 Prozent im Jahr, summiert er sich 2016 auf etwa 1,7 Milliarden Euro.
WOHER KOMMT DAS INTERESSE AN BIG DATA?
Die neue Qualität der Big-Data-Analyse stellte Dirk Mahnkopf, Business Advisor beim Analysesoftware-Spezialisten SAS Institute, heraus: „Business Intelligence ist Vergangenheitsbetrachtung; Big Data bedeutet, die Gegenwart zu verstehen und die Zukunft zu steuern.“
Als Beispiel beschrieb Mahnkopf eine Ursache-Wirkungs-Kette, wie sie bei schönem Wetter auftritt: Wenn die Metereologen steigende Temperaturen vorhersagen, müssen sich nicht nur die Betreiber von Eiscafés auf höhere Nachfrage einstellen, sondern auch die Logistiker in der Zuckerindustrie ihre Vorräte aufstocken, damit kein mögliches Geschäft verloren geht.
REIBUNGSLOSER FLUGHAFENBETRIEB
Ein anderes Beispiel führte Stefan Sabatzki, Data-Warehouse-Analyst beim Flughafenbetreiber Fraport, ins Feld. Er bemüht sich vor allem um einen reibungslosen Flug- und Terminalbetrieb. „Wir wollen nicht den gläsernen Passagier“, sagte er, „sondern den zufriedenen Kunden.“
Das sei erreicht, wenn der Passagier kurze Wege und keine Wartezeiten hat. Deshalb misst Fraport die Passagierströme mit Hilfe von Sensortechnik, ergänzt sie durch Flug- und Standortpläne sowie verfügbare Personalressourcen und „verwurstet“ sie mit Hilfe komplexer statistischer Modelle, wie Sabatzki ausführt.
Am Ende lasse sich ziemlich genau vorhersagen, wo ein Flugzeug optimalerweise andocken sollte oder wann und wo wie viel Personal für die Abfertigung benötigt werde – und zwar beinahe in Echtzeit, berichtet der Data-Warehouse-Spezialist stolz. Das Fraport-Warehouse sei bereits 2005 in Kooperation mit SAS und EMC aufgebaut worden. Heute arbeite es „near realtime“.
Einen Vorschlag, wie Fraport aus diesen Informationen weiteren Umsatz generieren könnte, warf Dirk Heitmann, Director of Smarter Analytics bei der IBM Deutschland, in die Runde: Es sei doch möglich, die Pacht für die Standflächen der Händler danach zu berechnen, wie häufig potenziell finanzkräfige Passagiere dort vorbeimüssten. „Das Potenzial ist mannigfaltig“, räumte Sabatzki ein, „aber noch nutzen wir die Daten nicht für diese Zwecke.“
Nach Heitmanns Ansicht fehlt es in vielen Unternehmen nicht an der Technik, sondern an der strategischen Vision für Big Data. Das bestätigte auch Günther Stürner, Vice President Sales Consulting bei Oracle Deutschland: „Wir können den Unternehmen keine Ideen oktroyieren.“ Das Verständnis und die Ideen müssten schon aus den Anwenderbetrieben selbst kommen: „Die Entwicklung der entsprechenden Datenmodelle wird eine unternehmensindividuelle Angelegenheit.“
VON DER EIGENEN MEDIZIN GEKOSTET
Die Anbieter nehmen gern einmal selbst einen Schluck von der Medizin, die sie ihren Kunden verordnen. So jedenfalls der Speicherhersteller EMC: „Wir nutzen Big-Data-Analysen, um vorhersagen zu können, wann unsere Platten beim Anwender möglicherweise kaputtgehen“, verriet Dinko Eror, Senior Director Global Services bei EMC.
Was mit einer Big-Data-tauglichen Speichertechnik möglich ist, stellte auch Anton Hofmeier heraus, Geschäftsleitungsmitglied der Software AG und verantwortlich für den Vertrieb der In-Memory-Datenbank Terracotta: Der Online-Bezahldienst Paypal könne heute zum Zweck der Betrugserkennung innerhalb von 150 Millisekunden mehr als 1000 Regeln anwenden; mit konventioneller Datenbanktechnik seien es nur 50.
* Karin Quack ist Redakteurin der deutschen Computerwoche.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*