Chancen für das Business nutzen

Daten nutzen dem Geschäftserfolg nur dann, wenn sie zeitnah analysiert werden. Relationale Hochleistungsdatenbanken können sehr große Datenbestände von mehr als 1.000 Terabyte ad hoc auswerten. [...]

Die Welt der Daten ist im Zuge der fortschreitenden Digitalisierung deutlich komplexer geworden, Datenquellen und -mengen wachsen rasant an und der Erfolg von Unternehmen hängt zunehmend davon ab, ob und vor allem wie die Informationen genutzt werden. Big Data ist heute weit mehr als nur vielzitierter Hype, sondern pure Realität: Innerhalb von durchschnittlich nur 18 bis 24 Monaten verdoppeln sich produzierte Terabyte-Datenmengen in Unternehmen. Dabei spielt der Business-Intelligence-Kontext eine immer wichtigere Rolle. Denn wer als Unternehmen Big Data sammelt, sie aber nicht analysiert und für den eigenen Geschäftserfolg nutzbar macht, wird auf lange Sicht nicht mit dem Wettbewerb mithalten können.

Einem laut BITKOM stolzen Big-Data-IT-Investitionsvolumen von rund 2,6 Mrd. Euro 2014 steht laut Analysten die nüchterne Tatsache gegenüber, dass in diesem Jahr nicht einmal ein Fünftel der Fortune-500-Unternehmen in der Lage sind, Big Data für ihr Business zu nutzen. Die gezielte Befragung der Datenflut sowie die Erkennung und Darstellung der Zusammenhänge sind für Firmen demnach unerlässlich. Wer jedoch das richtige Werkzeug einsetzt, kann die durch Big-Data-Analysen gewonnenen Erkenntnisse in unternehmerisches Gold verwandeln: Damit werden strategische Entscheidungen durch realistische Prognosen präziser an den realen Anforderungen des Unternehmens ausgerichtet.

TREND-TECHNOLOGIEN BEI BIG DATA
Datenbank-Infrastrukturen werden immer heterogener. Ein wichtiger, immer etablierterer Infrastrukturbaustein ist hierbei Hadoop: Die Open-Source-Plattform skaliert und ist zugleich wirtschaftlich, sodass im hybriden Ökosystem künftig noch mehr Applikationen auf Hadoop ablaufen werden. Die Integration von Business Intelligence in Hadoop ist allerdings nur bedingt sinnvoll – insbesondere bei zeitkritischen Anwendungen. Für hochwertige Analytics liefern dagegen In-Memory-Datenbanken die notwendige Geschwindigkeit und werden aus diesem Grund zunehmend als High-Performance-Schicht auf Hadoop aufgesetzt. Der Best-Practice-Ansatz, den viele datengetriebene Unternehmen verfolgen, erfordert zudem leicht zu implementierende sowie höchst skalierbare Lösungen, die ein hohes Maß an Flexibilität ermöglichen und dabei die eigenen IT-Ressourcen entlasten.

Bei der In-Memory-Technologie werden Daten im Hauptspeicher – und damit extrem schnell – verarbeitet. Herkömmliche Datenbanken sind für sämtliche Prozesse auf Festplatten optimiert, was im Vergleich zum Hauptspeicher jedoch sehr viel langsamer ist. Seit ein paar Jahren ist aber der bisher sehr hohe RAM-Preis im Verhältnis zum Festplattenspeicher im Sinkflug: Damit können es sich jetzt Unternehmen ohne weiteres leisten, den Hauptspeicher erneut einzusetzen und dadurch von den riesigen Geschwindigkeitsvorteilen zu profitieren.

ERFOLGREICHE ANALYSEPROJEKTE
Das Durchführen von Big-Data-Analysen erfordert in der Regel keinen großen Austausch vorhandener Systeme. Oftmals geht es nur um gezielte Ergänzungen und Erweiterungen. Ausschlaggebende Kriterien für die Kosten der einzusetzenden Analysesysteme sind insbesondere die Menge der anfallenden Daten sowie die genutzte Datenbanktechnologie. Setzt ein Unternehmen auf eine analytische In-Memory-Datenbank, so reduzieren sich die Lizenzkosten auf den tatsächlich genutzten Arbeitsspeicher und nicht auf die gesamten Datenmengen. Hinzu kommen intelligente Kompressionsalgorithmen und vollautomatisierte Prozesse, die die Investitionskosten einer In-Memory-Datenbank im Vergleich zu konventionellen Datenbanken schnell mehr als halbieren können.

Auch Firmen mit stark beschränktem Budget sind damit in der Lage, mithilfe von flexibel skalierbaren Software-as-a-Service- oder Cloud-Lösungen Big-Data-Projekte erfolgreich und effizient umzusetzen.

Technik alleine genügt nicht, um die verborgenen Big-Data-Schätze zu heben. Eine enge Verzahnung zwischen analytischer Expertise, Knowhow der eigenen Fachbereiche sowie der IT-Landschaft sind bei Unternehmen der Schlüssel zum Erfolg. Erfahrene Data Scientists werden daher künftig eine immer entscheidendere Rolle spielen, denn sie sind in der Lage, die notwendigen Analysegrundlagen für businesskritische Entscheidungen herauszufiltern – für den maximalen Nutzwert von Big Data.  

TIPPS ZUM EINSATZ VON BIG-DATA-ANALYSEN
– Big Data sollte als fester Bestandteil in der Unternehmensstrategie integriert sein.
– Die durchgängige Lösung von einem einzigen Anbieter gibt es nicht. Erfahrungsgemäß wählt man einen Best-Practice-Ansatz und überlegt genau, welche Aufgaben erfüllt werden sollte. Die Abhängigkeit von nur einem Anbieter kann sehr kostspielig werden und den Erfolg ausbremsen.
– Datenvolumen und -anforderungen ändern sich ständig: Abteilungen müssen in die Lage versetzt werden, ihren Analyse- und Datenbedarf schnell und einfach realisieren zu können.
– Compliance-Vorgaben erfüllen: Mitarbeiter schulen, Transparenz und Vertrauen schaffen sowie gut überlegen, welche Daten und Prozesse sinnvoll im Haus bleiben sollen bzw. welche in die Cloud gelegt werden.

* Der Autor Aaron Auld ist CEO von EXASOL.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*