Der IT-Sicherheitsspezialist KUERT präsentiert die häufigsten Gründe für das Scheitern von Unternehmen bei der Umsetzung von Big-Data-Projekten. Nicht selten liegt es am Geschäftsführer selbst, der lieber auf sein Bauchgefühl statt auf Analysen vertraut. [...]
Laut Gartner sind 92 Prozent aller Unternehmen in Sachen Big Data unentschlossen oder befinden sich noch in einer Planungsphase zur späteren Einführung. Von den restlichen Unternehmen, die bereits damit begonnen haben, Big Data aktiv im Unternehmen zu implementieren, scheitern die meisten. KUERT hat die wichtigsten Gründe zusammengetragen:
1. Widerstand im Management: Laut Fortune Knowledge Group verlassen sich 62 Prozent aller Geschäftsführer bei ihren Business-Entscheidungen eher auf ihre Erfahrung als auf die Analyse von Daten.
2. Auswahl des falschen Verwendungszwecks: Entweder starten Unternehmen bei der Einführung von Big Data mit einem viel zu großen und überambitionierten Projekt, oder sie versuchen ihre Big-Data-Probleme durch traditionelle und vorherrschende Daten-Technologien in den Griff zu bekommen, welche in der Folge mit den Anforderungen zur Analyse großer Datenströme komplett überfordert sind.
3. Große Datensilos: Hersteller von Big-Data-Applikationen sprechen sehr gern von „Daten-Seen“ oder „Daten-Hubs“. Die Realität in vielen Unternehmen zeigt jedoch, dass viele hier eher „Daten-Pfützen“ installieren – verbunden mit scharfen Abgrenzungen zwischen der „Marketing-Pfütze“, der „Produktionsdaten-Pfütze“ usw. Big Data ist jedoch wesentlich wertvoller für ein Unternehmen, wenn diese Barrieren eingerissen werden und die Daten so analysiert werden können, wie sie auch durchs Unternehmen fließen, im besten Fall sogar bei der Big-Data-Analyse komplett zusammenfließen. Firmenpolitik und Unternehmensrichtlinien stehen diesem Unterfangen oftmals konträr gegenüber. Die Einführung von Big-Data-Analyseprozessen sollte grundsätzlich in Zusammenarbeit mit dem jeweiligen Datenschutzbeauftragten des Unternehmens erarbeitet werden. Schon in der Planungsphase können somit praktische und unternehmenskonforme Lösungen erarbeitet werden.
4. Falsche Fragestellungen: Zu viele Unternehmen stellen Daten-Wissenschaftler und Analysten ein, bei denen es sich vielleicht um wahre Mathematik- und Programmiergenies handeln mag, die jedoch jegliches Wissen zur elementarsten Komponente vermissen lassen: Branchenkenntnis.
5. Unvorhergesehene Big-Data-Probleme: Die Datenanalyse ist nur eine Komponente eines Big-Data-Projekts. In der Lage zu sein, auf Daten zuzugreifen und diese zu verarbeiten, ist der kritische Teil des Ganzen, denn hier lauern Gefahren wie etwa Netzwerküberlastung.
6. Fehlende Qualifikation: Viele zu groß skalierte Big-Data-Projekte schreiten sehr langsam voran oder scheitern komplett. Oftmals liegt dies darin begründet, dass die beteiligten Personen nur über unzureichende Qualifikationen verfügen. (pi/wf)
Be the first to comment