Data-Analytics-Erfolgsstories

CIOs versuchen mit Hilfe von Datenanalysen Effizienz und Wachstum anzukurbeln. Das ist nicht immer von Erfolg gekrönt. Damit das bei Ihnen besser läuft, zeigen wir Ihnen einige Data-Analytics-Erfolgsbespiele. [...]

Wenn Daten tatsächlich das neue Öl sind, liegt der Schlüssel zur Nutzung ihres vollen Potenzials in dem Wissen darüber, wie man sie in greifbare Insights umwandelt. Zu diesem Zweck spielen IT-Entscheider mit Predictive Analytics Tools, erschaffen Machine-Learning-Algorithmen und testen viele weitere Lösungen in Dauerschleife. Das Ziel: Mehr Effizienz für’s Business und neue Wege und Ideen, um Services an den Mann, beziehungsweise Kunden, zu bringen. 
Inzwischen geben CIOs sogar mehr als je zuvor für Technologien aus, die die Data-Science-Abteilung unterstützen sollen. Dabei ist ihnen natürlich auch bewusst, welch positiven Effekt reduzierte Kosten und gesteigerte Einnahmen für ihr eigenes Ansehen bei C-Level und Vorstand haben können.
BIG DATA ANALYTICS – GRUNDPFEILER DER TRANSFORMATION
Laut den Analysten von IDC werden die weltweiten Einnahmen im Bereich Big Data und Analytics im Jahr 2017 um 12,4 Prozent (im Vergleich zum Vorjahr) auf 150,8 Milliarden Dollar ansteigen. Für den kommerziellen Verkauf von Hardware, Software und Services in diesem Bereich rechnet IDC mit einer Summe von 210 Milliarden Dollar. Big-Data-Analytics-Lösungen sind laut Dan Vesset von IDC inzwischen zum Grundpfeiler der digitalen Transformation geworden – weltweit und branchenübergreifend.
Aber diese wahnwitzigen Investitionen haben auch eine Schattenseite: Die meisten Data-Analytics-Projekte bringen keinen messbaren Mehrwert. Legacy-Systeme und unternehmensinterne Bürokratie haben für die Entstehung von Datensilos gesorgt und schlechte Datenqualität begünstigt. Und die CIOs kämpfen immer noch mit dem Fachkräftemangel und suchen händeringend nach Menschen, die die Daten auswerten können. Der Kampf um die Datenwissenschaftler wird hart geführt, Personal-Nachschub kann gar nicht schnell genug „produziert“ werden.
Doch hin und wieder gibt es auch Unternehmen, die in Sachen Datenanalyseeine Erfolgsgeschichte schreiben. Wir stellen Ihnen sechs Firmen vor, die Sie sich zum Data-Analytics-Vorbild nehmen sollten.
MERCK BRINGT ANALYTICS ZUM LAUFEN
Merck hat sich über die Jahre zum milliardenschweren, international agierenden Healthcare-Konzern entwickelt und ist in 140 Märkten vertreten. Das Unternehmen wollte die Daten, die es in seinem ERP und den Kernsystemen für Produktion und Inventarisierung gesammelt hat, nutzen, um daraus wichtige Business Insights zu generieren.
„Wir haben Daten lange Zeit nicht als praktikables, dauerhaftes und wertvolles Asset gesehen“, gibt Michelle Alessandro, CIO bei Merck, zu. „Wir wollten eine Unternehmenskultur etablieren, in der wir wesentlich weniger Zeit damit verbringen, Daten herum zu schieben und Reportings zu schreiben. Stattdessen wollen wir mehr Zeit darauf verwenden, die Daten für die Erzielung sinnvoller Geschäftsergebnisse zu nutzen.“
Also kreierte Merck kurzerhand MANTIS (Manufacturing and Analytics Intelligence). Dabei handelt es sich um ein Data-Warehousing-System, das In-Memory-Datenbanken und Open-Source-Tools beinhaltet und Daten aus strukturierten und unstrukturierten Systemen erfassen kann. Ein wichtiges Detail: Die technisch nicht-versierten Business Analysten können die Daten jederzeit problemlos über eine Visualisierungssoftware einsehen. Data Scientists können hingegen über Simulationen und Modelling-Tools auf die Informationen zugreifen.
Das MANTIS-System hat Merck dabei geholfen, die Gesamtkosten von Analytics-Projekten um 45 Prozent zu senken. Weitere greifbare Ergebnisse: Die durchschnittliche Bearbeitungszeit konnte um 30 Prozent gesenkt werden, die durchschnittlichen Lagerkosten um 50 Prozent.
Lessons learned: Ein Schlüssel zu ihrem Erfolg, so Alessandro, sei die Identifikation eines Leuchtturm-Projekts in einer Fabrik in Asien gewesen. Nachdem bewiesen war, dass MANTIS dort Erfolg hat, wurde das System auch auf andere Standorte ausgerollt. Eine weitere Lektion, die die IT-Chefin gelernt hat: Nicht zu viel wollen. In einem frühen Experiment habe sie den Bogen etwas überspannt, als sie die Kosten für die Produktionsprozesse bei Merck mit dem Einsatz von Künstlicher Intelligenz und Machine Learninganalysieren wollte. „Das lag nicht an mangelndem Budget oder einer Vision – wir konnten es einfach nicht zum Laufen bringen“, so Alessandro.
MACHINE LEARNING MACHT DR. PEPPER SMART
Über Jahre kamen die Außendienstmitarbeiter bei Dr. Pepper mit einem dicken Ordner – gefüllt mit Kundendaten, Verkaufsnotizen und Promotion-Material – zu Walmart oder Target. Heute sind die Ordner Geschichte – stattdessen haben die Sales-Mitarbeiter bei ihren Kundenterminen nun ein iPad „unter dem Arm“. Das sagt ihnen ganz genau, welche Läden sie besuchen müssen, welche Angebote sie machen können – und hält weitere, für den Verkauf wichtige Metriken bereit. „Früher waren unsere Außendienst-Mitarbeiter glorifizierte Annehmer von Bestellungen. Jetzt werden sie zu smarten Sales-Leuten, die mit allen Informationen ausgestattet sind, um ihre Ziele zu erreichen“, erklärt Tom Farrah, CIO der Dr. Pepper Snapple Group.
Die dazu geschaffene Plattform heißt MyDPS und nutzt Machine Learningund weitere Analytics Tools, um für jeden Mitarbeiter eine tägliche Scorecard zu erstellen, sobald diese die App öffnen. Algorithmen sorgen dafür, dass jeder Mitarbeiter bei Bedarf direkt einsehen kann, wie sich seine bisherige Leistung im Vergleich zum Soll verhält. Falls ein Mitarbeiter im Plan zurückfällt, zeigt ihm die App auch Wege, seinen Kurs zu korrigieren. „Wenn ich jemanden erfolgreich machen möchte, muss ich dafür sorgen, dass er die Informationen erhält, die in diesem Kontext relevant sind“, sagt Farrah.
Lessons learned: Um den Proof-of-Concept für MyDPS zu testen, gab Farrah die Software an vier Mitarbeiter einer Filiale und organisierte anschließend eine Stippvisite des CEOs in dieser Niederlassung. Dabei zeigte sich, dass die Verkaufsquote mit MyDPS im Vergleich zum Vormonat um 50 Prozent angehoben werden konnte. Das überzeugte den Chef dann auch relativ schnell davon, grünes Licht für das Projekt zu geben, wie Farrah erzählt: „Er sah das Ergebnis und war Feuer und Flamme. Es ist wirklich wichtig, nicht nur das Budget für ein Projekt sicherzustellen, sondern auch das Resultat zu kommunizieren, das sich daraus ergibt.“
BECHTEL UND DAS DATENANALYSE-ZENTRUM
Die Investitionen in der Baubranche sind über die letzten Jahre stetig angestiegen – dabei habe die Industrie als Ganzes aber in den letzten beiden Jahrzehnten einen Produktivitätszuwachs von lediglich einem Prozent erzielt, wie Carol Zierhoffer, CIO beim größten (Anlagen)Bauunternehmen der USA, der Bechtel Corporation, sagt. Nach Meinung von Experten könnte die Branche ihre Produktivität um 50 bis 60 Prozent erhöhen – unter anderem durch die Erneuerung von Verträgen, die Weiterbildung von Mitarbeitern und die Verbesserung der konkreten Prozesse auf den Baustellen. Bei Bechtel (das Unternehmen hat beispielsweise den Hoover Dam und den Eurotunnel erbaut) begann man deswegen damit, seine verborgenen Datenschätze in verschiedenen Teilen des Unternehmens zu heben.
Um eine grundsätzliche Vorstellung vom weiteren Vorgehen zu bekommen, traf sich CIO Zierhoffer zunächst mit ihren Kollegen von Walmart, Boeing und Lockheed Martin. Im nächsten Schritt baute Bechtel ein eigenes Data Center auf, das einen fünf Petabyte großen Data Lake beherbergt, und startete mit einem Proof-of-Concept. Konkret nutzte das Unternehmen Technologie zur Bilderkennung, um Fotos von den Baustellen im Sinne seiner Kunden zu inspizieren und kategorisieren. So konnten bereits zwei Millionen Dollar eingespart werden. Mit Hilfe von Natural Language Processing (NLP) Tools werden Forderungen, Ausschreibungen und Verträge gemanagt. So dauern Planungsprozesse, die vorher Tage und Wochen in Anspruch genommen haben, nur noch wenige Stunden. Inzwischen wendet Bechtel auch Analytics an, um die Mitarbeiterbindung zu stärken, aber auch um vorhersehen zu können, wann Mitarbeiter das Unternehmen verlassen werden. „Wir glauben, dass wir dieser Produktivitäts-Herausforderung bereits dicht auf der Spur sind“, meint CIO Zierhoffer. 
Lessons learned: Datensilos und Datenqualität können zur Belastung werden. Obwohl Bechtel große Datenmengen analysieren kann, muss die Datenqualität im ganzen Unternehmen verbessert werden. „Es war nötig, all unsere Prozesse und unsere Arbeitsweisen auf den Prüfstand zu stellen und Datensilos zu überbrücken“, gibt Zierhoffer preis.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*