Big Data: Was genau steckt hinter Process Mining?

Process Mining verspricht einen Überblick über alle Abläufe. Lesen Sie, wie diese Technologie entstanden ist und wie genau sie funktioniert. [...]

Process Mining kann Unternehmen dabei helfen, den Durchblick in ihren Abläufen zu behalten (c) pixabay.com

Der Ursprung der Big-Data-Analytics-Technologie Process Mining liegt in den Niederlanden. Der niederländische Informatikprofessor Wil van der Aalst erforschte bereits Anfang der 2000er Jahre an der TU Eindhoven Systeme zu Workflow Management und Business-Process-Management (BPM). Dabei stieß er auf eine Lücke in der Analyse transaktionaler Daten: Bislang fokussierte man sich auf die Analyse von Daten, ohne sie der Auswertung von Prozessen zuzuordnen.

Process Mining sollte genau diese Lücke zwischen traditioneller, modellbasierter Prozessanalyse und datenzentrischen Analysetechniken wie Data Mining schließen. Im Unterschied zu Data Mining konzentriert sich Process Mining auf die Nutzung von in den Daten enthaltenem, implizitem Prozesswissen – und geht damit weiter als herkömmliche Business-Intelligence-Lösungen, die den Blick primär auf einzelne Kennzahlen richten, punktuelle Ergebnisse liefern und Prozesse durch eine Vorselektion nicht ganzheitlich abbilden.

Mit „ProM“ wurde in dieser Zeit die erste Process-Mining-Technologie als Open-Source-Software an der TU Eindhoven entwickelt, die hauptsächlich auf eine Nutzung in der Wissenschaft und Forschung abzielte. Seit 2011 wird Process Mining auch Unternehmen zugänglich gemacht – mit Software-Lösungen, die eine neuartige Verbindung von Ereignisdaten und Prozessmodellen erreicht.

Gerüstet für die digitale Unternehmenswelt

Um den Herausforderungen der Digitalisierung zu begegnen und dem wachsenden Kundenanspruch auf ein personalisiertes Nutzererlebnis gerecht zu werden, benötigen Unternehmen ein sehr gutes Verständnis für ihre eigenen Prozesse. Process Mining kann hierbei unterstützen. Im Vergleich zu klassischen Data-Mining-Methoden setzt Process Mining nicht auf der Daten- sondern auf der Prozessebene an: Die Technologie macht jeden Schritt im Prozess, wenn nötig bis auf Belegbasis, nachvollziehbar. Sichtbar werden dadurch Abweichungen und Engpässe, die einen Ablauf ineffizient machen – und damit die Optimierungspotenziale.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Dabei analysiert Process Mining Logs, die als Ereignisse, sprich Aktivitäten im Prozess, gekennzeichnet werden. Diese Ereignisse sind wiederum einer Prozessinstanz zugeordnet. Der Ablauf eines Prozesses wird als Pfad an chronologisch ablaufenden Ereignissen abgebildet. Zusätzlich können weitere Informationen wie etwa Angaben zur Rolle der ausführenden Mitarbeiter, zu den im Prozess verarbeiteten Objekten oder zum Zeitstempel der Ausführung ergänzt werden. Anhand dieser Ereignislogs können Anwender die Ist-Prozesse im Unternehmen erkennen, mit den Soll-Prozessmodellen abgleichen und daraus Maßnahmen ableiten.

Next Generation Process Mining

In Zeiten, in denen IDC von 2018 (33 Zettabytes) bis 2025 ein Wachstum auf 175 Zettabytes prognostiziert, geht es längst nicht mehr um das reine Erheben, sondern vielmehr um das Verstehen und Nutzen dieser gigantischen Datenmengen. Durch die fortschreitende Entwicklung und die Integration von maschinellem Lernen und Künstlicher Intelligenz in Process Mining wird es möglich, auf Basis von riesigen Prozessdatensätzen Handlungsempfehlungen und Entscheidungen zu generieren.

Deutsche Unternehmen haben den hohen Stellenwert von Process Mining, Robotic Process Automation und Analytics für die Digitalisierung erkannt.

Beim maschinellen Lernen wird das Wissen aus der Historie generiert: Das System lernt aus den Prozessabläufen, erkennt Zusammenhänge zwischen Ursache und Wirkung und kann Abweichungen erkennen und erklären. Machine Learning ermöglicht damit „Predictive Process Mining“. Welche Maßnahmen im konkreten Fall ergriffen werden, bleibt nicht alleine der subjektiven Einschätzung des Anwenders überlassen: Process Mining erkennt Muster in riesigen Datensätzen, die Bewertung und Umsetzung von Maßnahmen in der jeweiligen Organisation erfolgt durch den Menschen.

Künftig wird Prozessanalyse immer mehr von Machine Learning und Künstlicher Intelligenz getragen werden. Zentraler Aspekt bleibt dabei allerdings die Benutzerfreundlichkeit – nur so gelingt der Einsatz in Unternehmen ohne Expertenwissen.

*Bastian Nominacher ist Vordenker bei Process Mining und Big Data-Analyse-Verfahren. Als Co-CEO und Mitgründer des Technologie-Startups Celonis hat er Process Mining als neue Disziplin mitbegründet und entwickelt sie weiter. Dabei hilft ihm der enge Kontakt zu Kunden – Konzernen wie Siemens, Bayer, RWE, Vodafone oder mittelständischen Unternehmen – genauso wie die Zusammenarbeit mit Forschungseinrichtungen. Sein Wissen teilt er im Rahmen der Start-up-Beratung der TU München.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*