Probleme bei der Implementierung: Ziele für Datenanalyse fehlen

Das Gros der Anwender ist sich unsicher, welche Werkzeuge zur Datenanalyse sie brauchen. Die Hälfte weiß nicht einmal, welche Daten sie sammeln sollen. Analysten raten, nicht in Panik zu verfallen und Ziele zu definieren. [...]

Data ist das virtuelle Gold, aber offensichtlich nicht ohne Nebenwirkungen zu haben. Als Einzelner und auch als Unternehmen kann man derzeit mit Recht verunsichert darüber sein, in welcher Dimension eigene Daten gesammelt und ausgewertet werden – von Geheimdiensten beispielsweise. Aus dieser Perspektive ist beruhigend, dass sich aus schier unendlichen Datenfluten ja nicht zwingend sinnvolle Informationen filtern lassen.
Anthony Coops, Partner bei den Wirtschaftsprüfern und Beratern von KPMG in Australien, bringt dieses Problem schön auf den Punkt: „Alle verfügbaren Daten zusammenzuschmeißen und auf einen wohl schmeckenden Eintopf an Erkenntnissen zu hoffen, wird selten – wenn überhaupt jemals – zu brauchbaren Ergebnissen führen.“
KEIN PLAN, WAS MAN MIT DEN DATEN ANFANGEN SOLL
Aus einer anderen Sicht allerdings ist es just problematisch, dass dieser Eintopf an Erkenntnissen offenbar nicht mühelos zuzubereiten ist. Laut einer von KPMG Capital beauftragten Studie unter 144 CIOs und CFOs scheitern viele Firmen nämlich genau daran bei ihren Bemühungen im Feld Data & Analytics (D&A).
Demnach hält zwar fast jeder der Befragten Data für geschäftlich wichtig. Aber vielen Entscheidern fehlt offenbar der Plan, was genau sie damit anfangen sollen. Da trifft es sich gut, dass neben KPMG auch die Analysten von Forrester Research in ihrem Blog Tipps auf diesem Gebiet geben.
69 Prozent also sagen laut Studie von KPMG Capital, einem von KPMG International gegründeten Investmentfond, dass D&A für sie sehr wichtig oder sogar geschäftskritisch sei. Befragt wurden von FT Remark, einem Dienstleister der Financial Times Group, Führungskräfte aus Firmen mit mehr als 1 Milliarde US-Dollar Jahresumsatz.
Zwei Drittel der Befragten haben wegen der hohen Bedeutung der Datenanalyse nach eigenen Angaben auch schon ihre Geschäftsstrategie verändert. Auf der Agenda stand und steht vor allem der Ausbau von Kapazitäten, um Big Data-fähig zu werden.
INTEGRATION MACHT KOPFSCHMERZEN
Die Umsetzung indes gestaltet sich weithin schwierig. 85 Prozent betrachten die Implementierung passender Lösungen für die Analyse und Interpretation vorhandener Daten als Herausforderung. 75 Prozent tun sich schwer mit Entscheidungen, die D&A betreffen. Die Integration von Data-Technologie in bestehende Systeme bereitet zwei von fünf Firmen Kopfzerbrechen.
Die Wurzel all dieser Übel ist laut KPMG das fehlende Verständnis dafür, wie sich das richtige Umfeld für Data-getriebene Transformation gestalten lässt. Das fängt schon damit, dass mehr als die Hälfte der Befragten unsicher sind, welche Daten sie überhaupt sammeln sollen.
„Nach unserer Erfahrung besteht eine der größten Herausforderungen darin, dass die meisten Business-Verantwortlichen einen viel zu engen Blick auf Daten und die Potenziale von Analytics haben“, sagt Mark Toon, CEO von KPMG Capital. „Dabei geht es nicht mehr nur um Data Management und Technologie.“ Entscheidend sei es, den Mitarbeitern einen einfachen Weg zu den erforderlichen Informationsgewinnen zu ebnen. „Und wenn man das macht, treibt man die geschäftliche Performance voran“, so Toon.
ENTSCHEIDER BEGINNEN, DIE RICHTIGEN FRAGEN ZU STELLEN
KPMG konzediert, dass die Entscheider allmählich begännen, die richtigen Fragen zu stellen und strategisch über den Wert ihrer Daten nachzudenken. Dringend mahnen die Berater indes an, mit der Pflege von Analyse-Personal anzufangen und ihre Daten-Silos aufzubrechen. Vor allen Dingen müsse man vor D&A-Initiativen klar beantworten können, was man genau als Ziel anstrebt.
„Um D&A operationalisieren zu können, benötigt man nicht unbedingt neue Systeme und Tools“, sagt KPMG-Analyst Eddie Short. „Vielmehr geht es darum, klassische Business Intelligence mit neuartigen Big Data-Instrumenten zu verschmelzen, um sowohl die althergebrachten als auch die entstehenden IT-Strategien vorantreiben zu können.“
Nach dem Hype um Big Data scheint das die Quintessenz momentaner Experteneinschätzungen zu sein: Von blindem Aktionismus ist abzuraten; sinnvoll und wichtig ist die Optimierung des Datenanalysewerkzeugkastens nach Bedarf im jeweiligen Unternehmen – falls nötig mit Big Data-Instrumenten. Arthur D. Little beispielsweise nutzt für das eher klassische BI-Terrain inzwischen den Begriff „Little Data“ und propagiert die durchdachte Verknüpfung mit Big Data.
SCHULMEISTERLICHE IT BRAUCHT NIEMAND
„Man muss sich damit vertraut machen, wie Daten mit dem Kundenerlebnis in Verbindung stehen, wie sie die Produktion beeinflussen, wie sie die Lieferkette optimieren helfen und wie sie möglicherweise Erkenntnisse zur Datenbewertung beisteuern können“, schreibt Forrester-Analystin Michele Goetz in einem Blog-Eintrag. „Was zählt ist zunächst, welche Daten das Business treiben – darauf lässt sich dann das passende Data System aufbauen.“
Goetz rät dazu, gemeinsam mit dem Business zu definieren, wie bei Data Management-Investitionen der Erfolg aussieht. Das entsprechende Bild sollte auf eine Seite passen. Mit Hilfe einer Auswertung von Daten- und Geschäftsprozessanfragen sollte man nach Meinung der Analystin ein Bedarfsmuster entwickeln können.
Im Konzept müsse tunlich auch die nicht-technologische Sicht auf Daten berücksichtigt werden. In jedem Fall dürfe sich die IT dem Business gegenüber nicht als Lehrmeister fürs Data Management aufspielen. Ein schlimmer Fehler ist es laut Forrester, Systeme auf Basis von Anbietertipps und Markthypes zu bauen. Key Performance Indicators (KPIs) und Business-Pläne dürften nicht ignoriert werden.
* Werner Kurzlechner ist Redakteur der deutschen CIO.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*