Schrittweise zum Big-Data-Erfolg

Wenn mittelständische Unternehmen gängigen Vorurteilen folgen und Big Data ignorieren, verzichten sie nicht nur auf wichtige Erkenntnisse, sie gefährden auch ihre Wettbewerbsfähigkeit, warnt IT-Full-Service-Provider Consol. [...]

Für eine erfolgreiche und schnelle Big-Data-Implementierung empfiehlt Consol ein iteratives Vorgehen. Es basiert auf einem dreistufigen Ansatz: der Ermittlung der Daten, der Analyse der Daten und der Definition von Anwendungsfällen.

An erster Stelle steht die Untersuchung des „Informations-Ökosystems“ eines Unternehmens, um alle für die Geschäftsprozesse relevanten Daten zu ermitteln. Zentrale Fragen lauten dabei: Welche Daten liegen wo und in welcher Form vor, welches Datenvolumen existiert, wie häufig werden Daten geändert oder welche Schnittstellen gibt es für den Datenzugriff?

Der nächste Schritt ist die Analyse der gesammelten Informationen. Ziel dabei ist, Daten und Zusammenhänge aufzuzeigen und zu clustern. Die Analyse ist meist der aufwändigste Teil, da ein Big-Data-Consultant hierfür ein umfassendes Verständnis der branchen- und unternehmenstypischen Daten und Zusammenhänge mitbringen muss.

In einem dritten Schritt sollten aus der Vielzahl potenzieller Anwendungsmöglichkeiten maximal zwei konkrete Szenarien ausgewählt werden. Anhand dieser Anwendungsfälle kann ein Unternehmen dann schnell überprüfen, ob und wie Big Data in kurzer Zeit einen realen Mehrwert generiert.

Consol verfolgt bei Big-Data-Projekten den Ansatz „Klein anfangen, groß wachsen“. Das vielfach bewährte Konzept basiert auf einem Start mit einem Pilotprojekt und einer anschließenden sukzessiven Ausweitung des Lösungsszenarios. Der Grund: Die Möglichkeiten, die ein Big-Data-Ansatz durch die Verknüpfung aller verfügbaren Datenquellen mit sich bringt, sind komplex. Die Charakteristika eines ersten Szenarios sollten daher eine geringe Komplexität, eine schnelle Realisierbarkeit und ein erkennbarer Mehrwert sein.

„Nach unseren Erfahrungen vertritt noch immer ein großer Anteil aller mittelständischen Unternehmen beim Thema Big Data die Auffassung ,dafür sind wir zu klein’; damit meinen sie vor allem die Kosten der technischen Umsetzung. Diese Einschätzung trifft aber nicht unbedingt zu“, betont Christian Friese, Account Manager bei Consol. „Big-Data-Technologien ermöglichen auch kleinen und mittelständischen Unternehmen, sehr kostengünstig in ein Projekt einzusteigen, teilweise sogar Open-Source-basiert, zumindest im Hinblick auf die Software und Plattform.“

Big Data bietet zahlreiche Vorteile. So können Big-Data-Lösungen auch größte, unstrukturierte Datenvolumina effizient bewältigen – sowohl im Hinblick auf die steigende Datenmenge und -vielfalt als auch hinsichtlich der erforderlichen Abfragegeschwindigkeit. Unter anderem bringt Big Data folgenden Nutzen mit sich:

  • Identifizierung von Optimierungspotenzialen
  • Agile Reaktion auf Veränderungen am Markt, bei Kunden und im eigenen Unternehmen
  • Unterstützung fundierter strategischer Management-Entscheidungen
  • Gewinnung von Wettbewerbsvorteilen

„Daten und Informationen sind die neue Währung im immer aggressiveren Wettbewerb“, konstatiert Christian Löhnert, Pre-Sales Consultant bei Consol. „Jedes mittelständische Unternehmen sollte also überprüfen, welchen Informationsvorsprung ihm die Big-Data-Nutzung eröffnet. Sie ermöglicht ein besseres Marktverständnis, das sich am Ende leicht in einen Wettbewerbsvorteil ummünzen lässt.“


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*