Unternehmen vertrauen Data Analytics nicht

70 Prozent der Unternehmen fürchten um ihre Reputation, wenn sie Datenanalyse betreiben. KPMG gibt in einer Studie sieben Tipps, wie Anwender mit dem Problem umgehen können. [...]

Daten sind mit an sich grenzender Wahrscheinlichkeit das kostbarste Gut der nahen und mittleren Zukunft. Und ihre Analyse wird deshalb eine der vordringlichsten Aufgaben in der globalen Ökonomie sein. Warm geworden sind die Unternehmen mit Data & Analytics bislang aber nicht. Und zwar weltweit. Das zeigt die Studie „Building Trust in Analytics“ von KPMG. Im Auftrag der Wirtschaftsprüfer befragte Forrester Consulting Entscheider aus mehr als 2.000 Unternehmen.
Skepsis bei Genauigkeit und ethischer Korrektheit
Der Titel verrät bereits, dass mit der Datenanalyse insbesondere Vertrauensfragen verknüpft sind. Dass es eine große Skepsis der Verbraucher gegenüber der Datennutzung von Unternehmen gibt, ist bekannt. Die Studie zeigt, dass sich diese Bedenken an der Spitze der Firmen spiegeln. In den Vorstandsetagen fehlt nämlich ebenfalls das Vertrauen, dass im eigenen Haus sorgsam und zielführend mit Daten umgegangen wird. Ein zentrales Ergebnis: 70 Prozent der Unternehmen weltweit sagen, dass sie sich durch die Analyse von Daten Risiken bezüglich ihrer Reputation aussetzen.
In der Studie versucht KPMG angesichts des nicht eben ermutigenden Befundes, Hilfestellung zu leisten. Die Analysten definieren zum einen vier Ankerpunkte des Vertrauens, von denen sich die Anwender bei der Datenanalyse leiten lassen können. Zum anderen gibt KPMG sieben konkrete Tipps.
Deutsche Führungskräfte besonders skeptisch
Unternehmen hätten das Potenzial von Echtzeitanalysen, intelligenten Suchagenten, Dashboards und lernenden Maschinen erkannt, konstatieren die Analysten. „Aber: Es mangelt an Vertrauen in die entsprechenden Analysen“, so KPMG. „Besonders deutsche Entscheider sind skeptisch, dass Daten in ihrem Unternehmen ethisch korrekt, akkurat und sicher analysiert werden.“ Jedes zweite Unternehmen fürchte, dass Datenanalysen dem eigenen Ruf schaden können.
In Deutschland werde Datenanalyse „in deutlich geringerem Umfang“ genutzt als im weltweiten Durchschnitt. „Je mehr es um die aktive Nutzung der Daten geht, desto geringer ist das Vertrauen in Data & Analytics“, heißt es in der Studie. Mit 32 Prozent (weltweit 40 Prozent) genießt Reporting unter deutschen Entscheidern noch am meisten Vertrauen. Jeder vierte deutsche Entscheider vertraut intelligenten Suchagenten, die etwa auch Sprache oder Bilder suchen können. Noch geringer ist mit 22 Prozent hierzulande das Vertrauen in lernende Maschinen ausgeprägt.
Vertrauen am Anfang des Daten-Lebenszyklus am größten
Wie erwähnt sind die deutschen Resultate schlechter als der globale Durchschnitt, aber in der tendenziellen Grundaussage gehen beide in die gleiche Richtung. Das gilt auch für einen weiteren Aspekt, für den hier erneut die Ergebnisse aus Deutschland angeführt werden. Demnach ist das Vertrauen am Anfang des Daten-Lebenszyklus am größten und sinkt dann im Verlauf drastisch.
77 Prozent der Befragten vertrauen den Daten während der Phase der Datenbeschaffung. In der Analyse-Phase vermindert sich dieser Wert deutlich. Nur zwei Fünftel schließlich vertrauen den Daten bei der Erfolgsmessung. „Die größte Herausforderung ist nicht die Datenerhebung, sondern die Analyse und Weiterverwendung“, schlussfolgert KPMG.
4 Ankerpunkte für Vertrauen
Nach Meinung der Analysten sollten Firmen einen systematischen Vertrauensansatz wählen, der den gesamten Lebenszyklus der Analyse umspannt und auf vier Ankern basiert. Jeder dieser vier Anker sei über den gesamten Lebenszyklus hinweg relevant, betont KPMG: von der Datenbeschaffung über die Vorbereitung und Mischung der Daten sowie die Analyse und Modellierung bis hin zur Nutzung und schließlich zur Messung der Wirksamkeit. Den Ankern sind jeweils Leitfragen und Befunde aus der globalen Studie zugeordnet:
1. Qualität: Nur jedes zehnte Unternehmen geht davon aus, bei der Qualität von Daten, Tools und Methoden an der Spitze zu stehen. Hinsichtlich der Datenanalyse-Ressourcen wähnen sich 22 Prozent so gut wie möglich aufgestellt.
Leitfragen: Sind die fundamentalen Baustein der Datenanalyse gut genug? Wie gut verstehen Unternehmen die Rolle der Qualität bei der Entwicklung und Steuerung von Tools, Daten und Analysen?
2. Effektivität: 16 respektive 20 Prozent der Befragten zählen sich hinsichtlich der Genauigkeit von Modellen und Prozessen sowie hinsichtlich der Nutzbarkeit von Modellen und Prozessen zu den besten Unternehmen.
Leitfragen: Funktioniert die Analyse wie beabsichtigt? Kann das Unternehmen Genauigkeit und Nutzbarkeit des Outputs bestimmen?
3. Integrität: In diese Kategorie fällt das mit Abstand beste Teilergebnis dieser Zusammenstellung. 44 Prozent bewegen sich nach eigener Einschätzung auf Best-Practice-Niveau, wenn um die regulatorische Compliance bei der Datenanalyse geht. Schwieriger zu beackern ist offenbar ein zweites Terrain: Nur 13 Prozent äußern sich ähnlich positiv zu datenschutzrechtlichen und ethischen Aspekten.
Leitfragen: Wird Datenanalyse auf akzeptable Weise angewendet? Wie gut steht das Unternehmen in Einklang mit Regulierungen und ethischen Prinzipien?
4. Belastbarkeit: Jeweils rund ein Fünftel der Firmen denkt, bei Sicherheit und bei Governance auf bestmögliche Weise zu arbeiten.
Leitfragen: Wird der Betrieb langfristig optimiert? Wie gut gelingt es der Firma, während des gesamten Analyse-Lebenszyklus gute Governance und Sicherheit zu gewährleisten?
7 Empfehlungen von KPMG
„Für den Aufbau von Vertrauen gibt es keine Roadmaps, keine Software-Lösungen und keine perfekten Antworten“, heißt es in der Studie. Gleichwohl lassen sich laut KPMG Best Practices und Praxisbeispiele finden, die Anwender inspirieren können. Sieben überdenkenswerte Ideen haben die Analysten als Empfehlungen zusammengestellt:
  • 1. Mit den Grundlagen anfangen: die Vertrauenslücken bewerten. Es gilt zunächst herauszufinden, in welchen Feldern vertrauensbasierte Analyse tatsächlich geschäftskritisch ist. Auf diese Felder sollte man sich konzentrieren. KPMG weist darauf hin, dass Schlüsselrisiken oft mit wenigen Veränderungen vermindert werden können. Manchmal genüge die Verwendung einfacher Checklisten.
  • 2. Die Richtung definieren: Ziele klären und in Einklang bringen. Zu gewährleisten ist ein klar bestimmter Zweck der Sammlung und Analyse von Daten. Leistung und Wirkung der Datenanalyse sollten messbar sein. Ferner sei wichtig, dass Ziele und Anreize der für die Datenanalyse Verantwortlichen mit jenen der User und der Betroffenen in Einklang stehen. Fehlende Klarheit könne zu Misstrauen oder einem nicht zufriedenstellenden ROI führen, warnt KPMG.
  • 3. Das Bewusstsein heben: internes Engagement steigern. Stakeholder in Schlüsselstellungen sollten involviert und multidisziplinäre Teams aufgestellt werden. In ihren sollten Datenanalyse-Spezialisten sowie Mitarbeiter aus der IT und den Fachbereichen zu finden sein.
  • 4. Expertise aufbauen: interne Datenanalyse-Kultur entwickeln. Diese dient als erster Vertrauensgarant. Konkret gilt es hier, Lücken und Potenziale bei Governance, Struktur und Prozessen zu identifizieren. Sichergestellt sein sollte Expertise in Qualitätsgarantie von Analysen, etwa durch Experimental Design, A|B Testing und andere Validierungsinstrumente. Vertrauen in Daten und ihre Analyse sollte letztlich zum Wert im Herzen des Unternehmens entwickelt werden.
  • 5. Transparenz stimulieren: die „Black Box“ für andere Augen öffnen. Hierfür gibt es laut KPMG viele Möglichkeiten: funktionsübergreifende Teams, Kontrolle durch Dritte und Peer Reviews, Seite im Wiki-Stil, Motivation von Whistleblowern und eine Stärkung der Qualitätssicherungsprozesse. Entscheidend ist es nach Ansicht der Analysten, jede einzelne Herausforderung bei der Datenanalyse für sich zu überprüfen.
  • 6. Eine Rundum-Sicht anstreben: Ökosysteme, Portfolios und Communities aufbauen. Um Vertrauen aufzubauen, muss laut KPMG über traditionelle Systemgrenzen, organisatorische Silos und enge Business Cases hinweg geschaut werden. Das ganze Ökosystem gehört in den Blick, für die Risiko- und Wertbemessung bietet sich ein Portfolio-Ansatz an.
  • 7. Innovativ sein: Experimente ermöglichen. Datenanalyse-Teams sollten Innovationen vorantreiben und verschiedene Wege ausprobieren dürfen, ohne große Angst vor einem Scheitern haben zu müssen. „Bauen Sie ein Daten-Innovationslabor auf, dass Data Scientist und Business-Leuten das schnelle Testen neuer Ideen ermöglicht“, rät KPMG den Anwendern. Man sollte immer daran denken, dass es auch hinter den spezifischen Performance-Zielen eines Projektes einen weiteren ROI geben könnte. Damit er gefunden wird, benötigen die beteiligten Mitarbeiter die richtigen Anreize.
* Werner Kurzlechner schreibt für CIO.de.

Mehr Artikel

Oliver Köth, Chief Technology Officer, NTT DATA DACH (c) NTT DATA
News

GenAI-Avatare als Webbereiter für die Zukunft

Der Blick in die Zukunft gleicht oftmals einem Blick in die Glaskugel. Dennoch wollen und müssen Unternehmen wissen, was auf sie zukommt, um sich optimal auf neue Herausforderungen einstellen zu können. Generative KI und damit entwickelte Avatare können dabei helfen, indem sie völlig neue Einblicke ermöglichen. NTT DATA beantwortet die wichtigsten Fragen rund um die Methode. ​ […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*