Ausgangsbasis für Big-Data-Projekte

Big Data ist zwar derzeit noch mehr Marketing-Hype als Nutzen stiftende Realität, doch das wird sich in den kommenden Jahren ändern. Es kann daher nicht schaden, sich anhand von sieben wichtigen Kriterien schon einmal Gedanken zum Thema zu machen. [...]

Obwohl das Thema für Anwenderunternehmen noch nicht die große Rolle spielt, die ihm von Anbietern zugeschrieben wird, gewinnt die Analyse von Big Data doch immer mehr an Relevanz. Laut Gartner werden 2013 die ersten wirklichen Big-Data-Projekte umgesetzt und einer weltweiten Untersuchung zufolge planen 42 Prozent der IT-Entscheider heuer oder im nächsten Jahr, in entsprechende Techniken zu investieren.

„Kaum eine Organisation hat zwar bereits eine unternehmensweite Strategie ausgearbeitet, aber Unternehmen verstehen inzwischen, was Big Data bedeutet“, erklärt Doug Laney, Research Vice President bei Gartner. Die heißen Fragen auf Anwenderseite seien im Moment, welche Strategien und Skills Big Data erfordert und wie sich der ROI messen und sicherstellen lässt. Als Starthilfe für interessierte Unternehmen hat das IT-Beratungs- und Systemintegrationshaus MSG Systems sieben Schritte identifiziert, die als Basis für Projekte zur Nutzung von Big Data dienen:

1. Ziele: Big-Data-Analysen sind zu vielen Themen möglich, so dass die Anzahl der Auswertungen unübersichtlich werden kann. Daher muss im ersten Schritt geklärt werden: Was bringt mir die Auswertung und welche Ziele verfolge ich damit? Möchte ich mehr Kunden akquirieren, den Umsatz steigern oder neue Geschäftsfelder erschließen? Welche Ziele sind realistischerweise überhaupt erreichbar?
2. Datenquellen: Die zweite Phase dient der Identifizierung der für das zu erreichende Ziel relevanten Datenquellen: Welche Quellen sind wichtig, und woher bekomme ich die Daten, die ich benötige? Kann ich überhaupt darauf zugreifen? In welcher Form stehen die Daten zur Verfügung? Oft ist es sinnvoll, nicht gleich zahlreiche Datenquellen zu nutzen, sondern sich auf ausgewählte zu konzentrieren.
3. Vernetzung: Um die richtigen Techniken auszuwählen, muss die IT frühzeitig eingebunden werden. Darüber hinaus empfiehlt sich die Einbeziehung anderer Fachbereiche, um den maximalen Nutzen aus neuen Auswertungen ziehen zu können. Um breite Unterstützung zu gewährleisten, sollte auch das Management spätestens in dieser Phase involviert werden.
4. Performance und Verfügbarkeit: Die Erwartungen bezüglich Performance und Verfügbarkeit von Daten und Analysen müssen so früh wie möglich geklärt werden, um eventuelle Kapazitätsengpässe der Infrastruktur zu verhindern. Dabei spielen Themen wie Analyse-Latenzzeit, Auswertungen in Echtzeit und In-memory-Techniken eine wichtige Rolle.
5. Prozesse: Ein wichtiger Faktor für den Erfolg von Big-Data-Projekten ist die Einbindung der Analysen und das Einfließen der Analyse-Ergebnisse in die Geschäftsprozesse. Nur so können neue Erkenntnisse zu tatsächlichen Verbesserungen führen.
6. Bestehende Analysestrukturen: Big-Data-Analysen ersetzen nicht zwingend bereits vorhandene Analysen, sondern ergänzen sie. Daher ist es sinnvoll, sie in vorhandene BI-Architekturen zu integrieren. Existierende Data Warehouses beispielsweise werden, von wenigen Ausnahmen abgesehen, nicht überflüssig.
7. Komplexität und Dynamik: Da zurzeit nicht absehbar ist, welche Daten in welchem Volumen kurz- und mittelfristig verfügbar sein werden, ist es bei Big-Data-Projekten besonders wichtig, die Einbindung neuer Datenquellen, zusätzlicher Analysen und anderer Bereiche von Beginn an mit einzukalkulieren.

„Die Nutzung von Big Data ist eine Herausforderung für alle Unternehmen, da es für die Auswertung keinen allgemein gültigen, Nutzen garantierenden Lösungsansatz gibt“, sagt Ralf Conrads, BI- und Big-Data-Experte bei MSG Systems. „Dennoch können Unternehmen durch die Auswertung von Big Data große Erkenntnisgewinne erzielen, daher sollten sie die Durchführung von entsprechenden Projekten auf jeden Fall prüfen.“ (oli)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*