Best Practices: Wie auch der Mittelstand von Big Data profitiert

Seit Jahren beschwören Experten die vielfältigen Vorteile von Big Data. [...]

Allerdings ist allgemein auch der Irrglaube verbreitet, dass Big-Data-Technologien mit hohen Kosten verbunden und nur für große Unternehmen geeignet sind. Eine Fehleinschätzung: Auch der Mittelstand kann unter Beachtung einiger Best Practices kostengünstig von Big Data profitieren.

Viele mittelständische Unternehmen vertreten nach wie vor die Auffassung, dass sie für Big-Data-Projekte zu klein sind. Dabei unterschätzen sie oftmals die Mehrwerte, die erfolgreiche Projekte generieren, oder, noch schlimmer, ziehen sie gar nicht erst in Betracht. Diese Mehrwerte reichen von der Identifizierung von Optimierungspotenzialen und Unterstützung strategischer Management-Entscheidungen über die agile Reaktion auf Marktveränderungen bis hin zur Gewinnung von Wettbewerbsvorteilen.

Vereinzelt schlagen Mittelständler aber doch den Big-Data-Weg ein. Allerdings verfolgen sie oft einen wenig zielführenden beziehungsweise auf längere Sicht kostspieligen Ansatz, indem sie versuchen, Big-Data-Projekte von Anfang an selbstständig umzusetzen. Dabei übersehen sie, dass Big-Data-Lösungen, also hochgradig verteil- und skalierbare Systeme, auch zahlreiche Tücken mit sich bringen. Vielfach setzen sie dann auch Technologie falsch ein, das heißt, sie handeln nach dem „Best Guess“-Prinzip, das durchaus zu nicht zufriedenstellenden Ergebnissen führen kann. Gerade am Anfang eines Projektes ist folglich „Guidance“ besonders wichtig, um Fehler zu vermeiden und die gewünschten Resultate zu erzielen.

Auch wenn eine Hands-On-Mentalität prinzipiell zu begrüßen ist, versuchen Unternehmen damit, bei komplexen Big-Data-Projekten Geld an der falschen Stelle einzusparen. Dieses Vorgehen kann sich später rächen, wenn die Plattform beispielsweise nicht so skaliert wie erwartet oder große „Umbaumaßnahmen“ erforderlich sind. Eines ist deshalb klar: Nicht nur in die Big-Data-Plattform muss der Mittelstand zu Beginn investieren, sondern auch in Expertise – durchaus auch mit der Beauftragung eines externen Big-Data-Experten, der idealerweise auch über fundiertes Branchen-Know-how verfügt.

Best Practices für ein Big-Data-Projekt
Ein Big-Data-Projekt sollte die IT mit der Durchführung eines Anforderungs-Workshops starten – und zwischen fachlichem und technischem Teil differenzieren. Der fachliche Teil umfasst die Vision und den Weg dorthin: Im Mittelpunkt steht dabei die Entscheidung, welche Daten wie genutzt werden können. Da bei Big-Data-Projekten eine iterative Vorgehensweise prinzipiell die bessere ist  – gemäß dem Motto „Klein anfangen, groß wachsen“ –, sollten zunächst ein oder zwei konkrete Anwendungsszenarien definiert werden. Die Charakteristika der ersten Szenarien sollten eine geringe Komplexität und schnelle Realisierbarkeit sein. Anhand dieser Anwendungsfälle kann das Unternehmen dann schnell überprüfen, ob und wie es durch Big Data in kurzer Zeit einen realen Mehrwert für das Business generieren kann.
Der Einsatz einer neuen Big-Data-Technologie bedeutet Komplexität und Veränderung, die im technischen Teil thematisiert werden müssen.
Zu klärende Fragen lauten etwa: Wie sieht die aktuelle Infrastruktur aus? Welche Systeme müssen angebunden werden, um an die Daten zu gelangen, und wie sieht die Umsetzung mit den neuen Technologien aus? Welche Richtlinien und Vorgaben gibt es hinsichtlich Verfügbarkeit, Security und Compliance? Darüber hinaus müssen die Projektverantwortlichen die Entscheidung treffen, ob eine Cloud-, On-Premises- oder hybride Lösung genutzt werden soll. Ergebnis des Workshops sollte ein Konzeptpapier für das initiale Projekt und die Infrastruktur sein.

Nach dem Workshop erfolgt der Aufbau der Plattform nach den ermittelten Vorgaben und – parallel dazu – eine Detailanalyse der für den Anwendungsfall notwendigen Daten, um den Data Ingest und das Data Processing entsprechend vorzubereiten. Die Realisierung der Data-Ingest-Kette umfasst das zuverlässige Laden der Daten und gegebenenfalls ein Pre-Processing. Pre-Processing kann zum Beispiel das Anreichern mit Zeitstempel und Herkunft oder Bereinigen von Daten umfassen, das heißt das Entfernen nicht benötigter Teile oder Schnellkorrekturen. Nachdem die Daten im Data Hub verfügbar sind, werden die Algorithmen zum Processing und der Analyse implementiert und die Ergebnisse bewertet. An diesem Punkt sind eventuell einige Iterationen erforderlich, um das optimale Ergebnis zu erhalten. Nicht zuletzt kann die Big-Data-Lösung an Dashboards für Visualisierungen, an vorhandene Business-Intelligence-Systeme oder an andere Zielsysteme angebunden werden.

Einsatzmöglichkeiten von Big Data
Die potenziellen Einsatzgebiete von Big Data sind weitreichend. Momentan starten Unternehmen vor allem Analytics-Projekte und werten hauptsächlich interne Daten aus, um neue Erkenntnis zum aktuellen Geschäft zu erhalten. Dabei machen sie vorhandene Datensilos im ersten Schritt zumindest teilweise zentral verfügbar und aggregieren sie nach Möglichkeit. Oft finden sich hier Self-Service-Ansätze, die vor allem dem internen Kunden die Möglichkeit geben, schneller an Informationen zu gelangen. Der echte „Roundturn“, der diese Erkenntnisse auch direkt in die Geschäftsmodelle einfließen lässt, steht in vielen Fällen jedoch noch aus.
Zu den gegenwärtig verbreitetsten Anwendungsszenarien von Big Data zählen etwa:
•    im Marketing und Vertrieb die Optimierung von Preisen und die Erstellung von Absatzprognosen
•    in den Bereichen Finanzen, Buchhaltung und Controlling die Auswertung von Daten als Basis für Management-Entscheidungen
•    in Logistikunternehmen die Optimierung von Lieferprozessen und Flottenmanagement
•    in produzierenden Unternehmen die bessere Auslastungsplanung für Maschinen.
Auch wenn viele Unternehmen momentan noch keine Big-Data-Plattform nutzen, wird der Trend nicht aufzuhalten sein. Selbst mittelständische Unternehmen werden ihn nicht ignorieren können. Schließlich sind Daten und Informationen die „neue Währung“. Ein besseres Marktverständnis bedeutet gleichzeitig einen Informationsvorsprung – und er lässt sich leicht in einen Wettbewerbsvorteil ummünzen. Das früher vielleicht richtige Argument, dass die Lösungen zu teuer sind, gilt zudem inzwischen nicht mehr. Neben monolithischen Systemen der Big Player am Markt stehen heute Big-Data-Technologien – insbesondere der Hadoop Stack – zur Verfügung, die kostengünstig genutzt werden können, da sie auf „Commodity Hardware“ laufen. Dabei darf aber eines nicht übersehen werden: Es geht bei Big Data nicht nur um die Investitionen in Systeme, sondern vor allem auch um den Wandel in ein digital ausgerichtetes Unternehmen und eine völlig veränderte Art, mit Daten umzugehen. Dieser digitale Wandel wird einiges an Zeit in Anspruch nehmen. Dennoch sollte ihn jedes Unternehmen anstreben, um im Wettbewerb nicht den Anschluss zu verlieren.

* Der Autor Christian Friese ist Account Manager und Christian Löhnert ist Sales Engineer bei der Consol Software GmbH in München.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*