Predictive Analytics: Darauf müssen Unternehmen achten

Predictive Analytics wirft auf Basis von komplexen Datenanalysen einen Blick in die Zukunft. Doch wie aussagekräftig sind die Prognosen? Bei der Implementierung einer Predictive Analytics-Lösung drohen viele Fallstricke – von der Auswahl der Daten über die Methodik bis hin zur unzureichenden Analyse der Geschäftsprozesse. Unternehmen sollten Predictive Analytics daher als kontinuierlichen, iterativen (Lern-)Prozess sehen. [...]

Absatzprognosen für ein bestimmtes Produkt in verschiedenen Regionen, dynamische Preisgestaltung oder Vorhersage des Stromverbrauchs – es gibt mittlerweile viele Beispiele für Predictive Analytics. Ziel ist es, auf Basis von Data Mining, maschinellem Lernen und anderen statistischen Methoden Vorhersagen über die Wahrscheinlichkeit von zukünftigen Ereignissen zu treffen. Das wirft einige Fragen auf: Wie stichhaltig sind diese Prognosen? Worauf müssen Unternehmen bei der Implementierung einer Predictive Analytics-Lösung achten? Welche Vorgehensweise (Strategie, Auswahl der Daten, Methodik) ist zu empfehlen? Wie lassen sich die gewonnenen Erkenntnisse erfolgreich in die Geschäftspraxis übertragen?

MEHRWERT AUFZEIGEN NACH ANALYSE DES GESCHÄFTSMODELLS
Dirk Böckmann, Vorstand und Partner bei der Avantum Consult AG, einer Tochter des SAP-Dienstleisters All for One Steeb AG, sieht grundsätzlich bei Unternehmen noch Aufklärungsbedarf. „Unsere Kunden beschäftigen sich erst nach und nach mit dem Potenzial ihrer Daten für Predictive Analytics. Wo solche Projekte jedoch bereits durchgeführt wurden, ist die Kundenzufriedenheit fast ausnahmslos am höchsten.“

Vor jedem Pilotprojekt steht erst eine ausführliche Analyse der Situation des Kunden. Welche Einflussfaktoren treiben das Geschäftsmodell? Wann sind die Umsätze niedrig, wann hoch? Wann steigt der Gewinn? Welche Ziele hat der Kunde? Um welche externen Informationen müssen die internen Daten angereichert werden, damit Ursache und Wirkung richtig zueinander passen? „Auf Basis der ausgewählten Daten bauen wir ein Modell, das aufzeigt, welchen Mehrwert unser Kunde mit besser abgesicherten Prognosen für sein Business konkret erzielen kann. So kommen wir zum Business Case“, sagt Böckmann. Anhand individueller Kennzahlen werde darin ein konkretes Ziel festgelegt, das der Kunde über Predictive Analytics erreichen will.

„Wir kombinieren verschiedene Modelle und verfeinern die Datenanalyse Schritt für Schritt, um die Vorhersagegenauigkeit zu verbessern.“ Dirk Böckmann, Avantum (c) Avantum Consult AG

Ein Beispiel: Avantum unterstützte einen Pharmagroßhändler mit einer Predictive-Lösung bei der Optimierung der Absatzplanung. Kern-Kennzahl war hier die so genannte Fehlmenge, die anzeigt, dass ein Produkt wegen zu hoher Nachfrage ausverkauft ist, beispielsweise Schnupfensprays bei Erkältungswellen. Kann ein Pharmagroßhändler in diesem Fall nicht liefern, bestellen die Apotheken bei der Konkurrenz. Die Fehlmenge hatte hier zu Umsatzeinbußen von bis zu drei Prozent geführt. Ziel war es daher, diese Fehlmenge mit besseren Absatzprognosen zu reduzieren.

AUSWAHL DER DATENSÄTZE
Nach der Analyse der Geschäftsprozesse und dem Festlegen der Ziele folgt die Auswahl der Daten, die für die konkrete Analyse relevant sind. „Ausgangspunkt ist immer die konkrete Fragestellung. Sie können nicht die komplette Datenbasis verwenden, erläutert Dr. Michael Milnik, Team Lead Customer Analysis bei der Blue Yonder GmbH, einem Anbieter von Predictive-Analytics-Lösungen. Dabei sei es meist wirtschaftlich sinnvoller, die Daten zuzuschneiden, die später über Algorithmen und Vorhersagemodelle ausgewertet werden.

Im obigen Beispiel bildeten alle internen Daten rund um die Produkt-/Waren-Gruppe Schnupfenspray die Basis für die Analyse. „Stehen bei der Prognose einzelne Kunden oder Kundengruppen im Fokus, sind vor allem die Kundendaten relevant, weniger die Produktdaten. Die Auswahl der Datensätze hängt also immer von der Fragestellung ab, lässt sich aber Schritt für Schritt erweitern“, so Milnik weiter. Interne Daten werden meist um externe Informationen wie Wetterdaten oder Ferien- und Feiertags-Termine ergänzt, um aussagekräftige Prognosen zu erhalten.

VORAUSSETZUNG: LEISTUNGSSTARKE DATENBANK-INFRASTRUKTUR
Grundlegende Voraussetzung für die effiziente Datenanalyse ist ein leistungsfähiges Data Warehouse, beziehungsweise eine geeignete Big Data-Infrastruktur, die auch große Datenmengen schnell auswertet. Blue Yonder setzt beispielsweise das analytische In-Memory Datenbanksystem von Exasol ein. Das System kommt mit verschiedenen Formen von Daten zurecht, vereinheitlicht und verbindet diese. Im Rahmen von Predictive Analytics ist es unerlässlich, Daten aus unterschiedlichsten Quellen zu aggregieren und zu analysieren. Sämtliche Datenquellen (Maschinen, Prozesse, Produkte, Wetterdaten etc.) und Systeme (ERP, CRM, BI etc.) müssen miteinander integriert werden.

Eine weitere Herausforderung ist es, die große Vielfalt von Datentypen und Formaten sowie die Qualität der einzelnen Daten umfassend zu verstehen und daraus entsprechende Einsichten zu gewinnen. Die Daten sollten natürlich alle Kriterien für hohe Qualität erfüllen wie Korrektheit, Konsistenz, Vollständigkeit, Aktualität oder Einheitlichkeit. Insbesondere für Predictive Analytics müssen genügend historische Daten vorhanden sein, damit sich diese mit geeigneten Prognosetechniken aussagekräftig in die Zukunft fortschreiben lassen.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*