Agil und flexibel müssen Unternehmen sein, die im Wettbewerb bestehen wollen. Daher werden Realtime-Informationen wichtiger. Doch nicht immer ist klar, wo Echtzeitverarbeitung sinnvoll ist und was das für die BI-Systeme bedeutet. [...]
FAKTOR 5: BIG DATA
Für Hufenstuhl spielt daher das Thema Realtime-BI eher eine Nebenrolle. Wichtiger sei für ihn in Bezug auf das rasante Wachstum strukturierter und unstrukturierter Daten das Thema Realtime Data. Gerade hinsichtlich der aktuellen Trends rund um Big Data dürften Anwender diesen Aspekt nicht unterschätzen. Unter dem Schlagwort Big Data lassen sich zwei Punkte zusammenfassen:
- Die Entwicklung dahin, dass die Unternehmen mit immer größeren Datenmengen umgehen müssen. Dabei handelt es sich nicht mehr nur um strukturierte Daten aus den klassischen relationalen Datenbanken. Künftig machen wenig strukturierte und polystrukturierte Daten wie Texte, Bilder und Videos den Löwenanteil der anfallenden Informationen aus.
- Das Bereitstellen von Methoden und Werkzeugen, um die Datenflut zu kanalisieren sowie vor allem zum Nutzen des eigenen Geschäfts sinnvoll auszuwerten.
Aus Sicht von Kaiserswerth wird es für das kommende Big-Data-Zeitalter neue Systeme und Technik brauchen: „Um mit der Komplexität und den riesigen Datenmengen umgehen zu können, werden wir Computer bauen müssen, die in der Lage sind, selbständig zu lernen, wie sie Erkenntnisse aus diesen Daten gewinnen können.“ Dafür arbeitet IBM dem Wissenschaftler zufolge an einer komplett neuen Prozessorgeneration. Neuronale Chips sollen dem menschlichen Gehirn aus Neuronen und Synapsen ähneln und entsprechend funktionieren. Kaiserswerth nennt als Beispiel den assoziativen Speicher bei der Mustererkennung: „Ich sehe einen Bekannten und weiß sofort, wer das ist.“ Der Mensch suche nicht erst in einer Datenbank, „so funktioniert das menschliche Gehirn nicht“. Das auch in der IT umzusetzen werde in Zukunft verstärkt der Trend sein.
BIG DATA BRAUCHT BUSINESS CASE
Allerdings gibt es bereits heute etliche IT-Lösungen für Big Data, sagt Hufenstuhl, mit denen sich beispielsweise Internet-Kanäle anbinden oder strukturierte mit unstrukturierten Daten verknüpfen ließen. Darüber hinaus verweist der CSC-Manager auf großvolumige Storage-Systeme, leistungsfähige In-Memory-Lösungen und Cloud-Angebote, die hohe Rechenkapazitäten für Analysen anbieten. Viele Anbieter stimmten ihre Lösungen auf Big-Data-Anforderungen ab. Als Beispiele nennt er Oracle Exadata oder Netezza von IBM. Diese Lösungen, schränkt Hufenstuhl ein, sind jedoch nicht preisgünstig: „Es geht dabei um relativ hohe Investitionen“, und das ist das Problem für die Anwender. Zwar gebe es durchaus Anwendungen und Konstellationen, bei denen sich die Investition in Big-Data-Lösungen rentieren könne, „es ist aber nicht einfach, die lohnenden Anwendungsfelder zu finden“. Ein solches Feld könnten beispielsweise anonymisierte Bewegungsmuster von Mobilfunkgeräten sein, die sich für Verkehrsprognosen auswerten ließen. Dieser mögliche Anwendungsfall sei aber unter BI-Gesichtspunkten noch gar nicht analysiert worden.
Be the first to comment