Gastkommentar: Ohne die richtigen Werkzeuge scheitern Big-Data-Projekte

Big Data ist keine vorübergehende Mode, die nach einiger Zeit wieder aus der IT-Diskussion verschwindet. Der Begriff beschreibt Herausforderungen, die viele Unternehmen umtreiben: explodierende Datenmengen, die Geschwindigkeit, mit der neue Daten entstehen, die Unterschiedlichkeit der Quellen und Inhalte und nicht zuletzt der steigende Bedarf an Echtzeit-Analysen. [...]

Sowohl die aus internen Beständen, aber auch die aus externen Quellen stammenden Datenmengen, wie solche von RFID-Lesegeräten, aus Sensornetzen in der Fertigung und aus Social-Media-Plattformen, bieten Unternehmen vielfältige Möglichkeiten für neue, geschäftsrelevante Erkenntnisse. 
Sicher ist: Big Data verändert die Arbeitswelt. Entscheidend ist, mit den richtigen Methoden und Werkzeugen die Datenberge zu bearbeiten, wobei die Größe für jedes Unternehmen relativ ist. Bei Kleinunternehmen und im Mittelstand können schon mehrere Gigabyte an Daten eine ungewöhnlich große Menge darstellen, die möglichst in Echtzeit zu analysieren ist. Für Konzerne beginnt Big Data erst bei einer Datenmenge von mehreren Hundert Terabyte. 
Gesucht wird dabei immer nach Mustern, Ähnlichkeiten, Zusammenhängen und Diskrepanzen. Produzierende Unternehmen aus der Konsumgüterbranche etwa wollen verstehen, wie Verbraucher auf ihre Produkte oder eine konkrete Vertriebskampagne reagieren. Dazu müssen Daten aus internen und externen Quellen in Echtzeit zusammengeführt werden. 
Handelsunternehmen können Sonderaktionen auch bei umfangreichem Produktportfolio und einem großen Filialnetz in großer Präzision und Geschwindigkeit planen, deren Wirkung kontrollieren und bei Bedarf nachsteuern. Wichtig dabei ist, auch alle relevanten Einflussfaktoren wie lokaler Wettbewerb, Kundenstruktur oder andere unvorhergesehene Ereignisse zu berücksichtigen. 
Dafür müssen Unternehmen aber die technischen Voraussetzungen schaffen, insbesondere auf den Gebieten Daten-Connectivity und Midd-leware. Beim Datenimport und -export gilt es die traditionellen relationalen und transaktionalen Systeme, aber auch neuere Verfahren wie NoSQL sowie hochskalierbare Analyseplattformen wie Hadoop oder Map-R einzubeziehen, die eine parallele Verarbeitung großer Datenmengen ermöglichen. Dabei geht es um typische Einsatzgebiete von Business Intelligence wie Data Warehousing, Data Migration, Data Replication und Data Analysis. Die Datenbankzugriffe und deren Performance sind entscheidend für den Erfolg von Big-Data-Projekten. Unternehmen benötigen daher standardbasierte, vollständig interoperable Datenbanktreiber,  mit denen sie ihre Applikationen funktional erweitern können, ohne dass sie den Programmcode der Anwendungen ändern müssen. Im Bereich der Daten-Connectivity bildet der hochperformante, standardbasierte Zugriff auf alle wichtigen relationalen Datenbanken via ODBC, JDBC oder ADO.NET ein Herzstück. Damit entsteht eine ausbaufähige Infrastruktur für einen schnellen und effizienten Daten-austausch bei Big-Data-Anwendungen.
* Paul Griffin ist Connect Product Manager bei Progress Software.

Mehr Artikel

News

Digitale Fähigkeiten der Österreicher:innen lassen zu wünschen übrig

39 Prozent der Beschäftigten in Österreich arbeiten nur selten mit digitalen Tools. Dabei ist klar: die Digitalisierung betrifft immer mehr Jobs. Vor diesem Hintergrund fühlt sich nur etwa jeder Achte hierzulande sehr gut auf die Herausforderungen der Arbeitswelt von morgen vorbereitet. Das sind die Ergebnisse der repräsentativen kununu Arbeitsmarktstudie, für die über 3.000 Beschäftigte in Österreich befragt wurden. […]

News

Mehrheit der Unternehmen könnte den Geschäftsbetrieb nach einer Cyberattacke nicht weiterführen

Den Backups gilt sowohl die Sorge der Securityverantworlichen als auch die Aufmerksamkeit der Hacker. So zeigt die global durchgeführte ESG-Commvault-Studie „Preparedness Gap: Why Cyber-Recovery Demands a Different Approach From Disaster Recovery“, dass nur jedes fünfte Unternehmen weltweit zuversichtlich ist, nach einer Cyberattacke seine Geschäftsprozesse weiterführen zu können. […]

News

KI und Cybersicherheit eröffnen dem Channel Wachstumschancen

Der Bericht „State of the Channel 2025“ zeigt, dass die Nachfrage nach künstlicher Intelligenz im gesamten Channel gestiegen ist, insbesondere bei umsatzgenerierenden Aktivitäten. 53 Prozent der in der DACH-Region befragten Unternehmen betrachten die komplexer werdende Technologie als wichtigsten Faktor für die Kundennachfrage nach Knowhow im Channel. […]

News

Check Point integriert CloudGuard in Nutanix Cloud Platform

Check Point will mit der Kollaboration den Herausforderungen begegnen, denen sich Unternehmen bei der Migration hin zu Cloud-Infrastrukturen gegenübersehen. Durch die Nutzung des Nutanix Service Insertion Frameworks und die Unterstützung des AHV-Hypervisors bietet CloudGuard eine konsistente Durchsetzung von Sicherheitsrichtlinien und Transparenz bezüglich Bedrohungen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*