Sechs Gründe für Big-Data-Pleiten

Der IT-Sicherheitsspezialist KUERT präsentiert die häufigsten Gründe für das Scheitern von Unternehmen bei der Umsetzung von Big-Data-Projekten. Nicht selten liegt es am Geschäftsführer selbst, der lieber auf sein Bauchgefühl statt auf Analysen vertraut. [...]

Laut Gartner sind 92 Prozent aller Unternehmen in Sachen Big Data unentschlossen oder befinden sich noch in einer Planungsphase zur späteren Einführung. Von den restlichen Unternehmen, die bereits damit begonnen haben, Big Data aktiv im Unternehmen zu implementieren, scheitern die meisten. KUERT hat die wichtigsten Gründe zusammengetragen:

1. Widerstand im Management: Laut Fortune Knowledge Group verlassen sich 62 Prozent aller Geschäftsführer bei ihren Business-Entscheidungen eher auf ihre Erfahrung als auf die Analyse von Daten.

2. Auswahl des falschen Verwendungszwecks: Entweder starten Unternehmen bei der Einführung von Big Data mit einem viel zu großen und überambitionierten Projekt, oder sie versuchen ihre Big-Data-Probleme durch traditionelle und vorherrschende Daten-Technologien in den Griff zu bekommen, welche in der Folge mit den Anforderungen zur Analyse großer Datenströme komplett überfordert sind.

3. Große Datensilos: Hersteller von Big-Data-Applikationen sprechen sehr gern von „Daten-Seen“ oder „Daten-Hubs“. Die Realität in vielen Unternehmen zeigt jedoch, dass viele hier eher „Daten-Pfützen“ installieren – verbunden mit scharfen Abgrenzungen zwischen der „Marketing-Pfütze“, der „Produktionsdaten-Pfütze“ usw. Big Data ist jedoch wesentlich wertvoller für ein Unternehmen, wenn diese Barrieren eingerissen werden und die Daten so analysiert werden können, wie sie auch durchs Unternehmen fließen, im besten Fall sogar bei der Big-Data-Analyse komplett zusammenfließen. Firmenpolitik und Unternehmensrichtlinien stehen diesem Unterfangen oftmals konträr gegenüber. Die Einführung von Big-Data-Analyseprozessen sollte grundsätzlich in Zusammenarbeit mit dem jeweiligen Datenschutzbeauftragten des Unternehmens erarbeitet werden. Schon in der Planungsphase können somit praktische und unternehmenskonforme Lösungen erarbeitet werden.

4. Falsche Fragestellungen: Zu viele Unternehmen stellen Daten-Wissenschaftler und Analysten ein, bei denen es sich vielleicht um wahre Mathematik- und Programmiergenies handeln mag, die jedoch jegliches Wissen zur elementarsten Komponente vermissen lassen: Branchenkenntnis.

5. Unvorhergesehene Big-Data-Probleme: Die Datenanalyse ist nur eine Komponente eines Big-Data-Projekts. In der Lage zu sein, auf Daten zuzugreifen und diese zu verarbeiten, ist der kritische Teil des Ganzen, denn hier lauern Gefahren wie etwa Netzwerküberlastung.

6. Fehlende Qualifikation: Viele zu groß skalierte Big-Data-Projekte schreiten sehr langsam voran oder scheitern komplett. Oftmals liegt dies darin begründet, dass die beteiligten Personen nur über unzureichende Qualifikationen verfügen. (pi/wf)


Mehr Artikel

News

Digitale Fähigkeiten der Österreicher:innen lassen zu wünschen übrig

39 Prozent der Beschäftigten in Österreich arbeiten nur selten mit digitalen Tools. Dabei ist klar: die Digitalisierung betrifft immer mehr Jobs. Vor diesem Hintergrund fühlt sich nur etwa jeder Achte hierzulande sehr gut auf die Herausforderungen der Arbeitswelt von morgen vorbereitet. Das sind die Ergebnisse der repräsentativen kununu Arbeitsmarktstudie, für die über 3.000 Beschäftigte in Österreich befragt wurden. […]

News

Mehrheit der Unternehmen könnte den Geschäftsbetrieb nach einer Cyberattacke nicht weiterführen

Den Backups gilt sowohl die Sorge der Securityverantworlichen als auch die Aufmerksamkeit der Hacker. So zeigt die global durchgeführte ESG-Commvault-Studie „Preparedness Gap: Why Cyber-Recovery Demands a Different Approach From Disaster Recovery“, dass nur jedes fünfte Unternehmen weltweit zuversichtlich ist, nach einer Cyberattacke seine Geschäftsprozesse weiterführen zu können. […]

News

KI und Cybersicherheit eröffnen dem Channel Wachstumschancen

Der Bericht „State of the Channel 2025“ zeigt, dass die Nachfrage nach künstlicher Intelligenz im gesamten Channel gestiegen ist, insbesondere bei umsatzgenerierenden Aktivitäten. 53 Prozent der in der DACH-Region befragten Unternehmen betrachten die komplexer werdende Technologie als wichtigsten Faktor für die Kundennachfrage nach Knowhow im Channel. […]

News

Check Point integriert CloudGuard in Nutanix Cloud Platform

Check Point will mit der Kollaboration den Herausforderungen begegnen, denen sich Unternehmen bei der Migration hin zu Cloud-Infrastrukturen gegenübersehen. Durch die Nutzung des Nutanix Service Insertion Frameworks und die Unterstützung des AHV-Hypervisors bietet CloudGuard eine konsistente Durchsetzung von Sicherheitsrichtlinien und Transparenz bezüglich Bedrohungen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*