Process Mining und Low-Code gehören zusammen

Process Mining gilt als essentielle Technik bei der Transformation hin zum datengetriebenen Unternehmen. Pegasystems erklärt, warum dabei eine Low-Code-Plattform als multifunktionales Werkzeug unverzichtbar ist. [...]

Foto: GinoCrescoli/Pixabay

Das Prinzip Process Mining klingt bestechend plausibel: Im ersten Schritt (Discovery) werden die Transaktionsdaten im Unternehmen erfasst und analysiert, die in den diversen unternehmerischen Prozessen anfallen.

Im zweiten Schritt (Conformance) werden sie auf ihre Konformität mit dem vorgegebenen Prozessmodell abgeglichen und geprüft. Und im dritten Schritt (Enhancement) werden vom Modell abweichende Prozesse angepasst und optimiert. Soweit die Theorie.

Die Praxis ist jedoch komplexer und mit enormem Aufwand verbunden. Denn es geht um Hundertausende von Prozessinstanzen, die geprüft, abgeglichen und gegebenenfalls optimiert werden müssen. Und zudem ist es ein iterativer Prozess. Deshalb ist Process Mining nur dann sinnvoll möglich, wenn es (teil-)automatisiert erfolgt und die Ergebnisse Ende-zu-Ende zusammengeführt werden.

Eine Prozessanalyse in Silos ist von vornherein ebenso zum Scheitern verurteilt wie der Versuch, die Prozesse selbst in Silos zu optimieren. Und genau hier kommt Low-Code ins Spiel.

Pegasystems erklärt, warum Process Mining und Low-Code logisch zusammengehören:

  1. Low-Code als Identifikations-Tool:
    • Angesichts der schieren Masse an Daten und Prozessen pickt sich ein intelligenter Discovery-Ansatz beim Process Mining zunächst die beiden vielversprechendsten Prozesstypen heraus. Erstens diejenigen, die für die Wertschöpfung am wichtigsten sind. Und zweitens jene, die sich am schnellsten und einfachsten optimieren lassen – die so genannten Low-hanging Fruits. Low-Code-Plattformen helfen, diese zu identifizieren und zu optimieren.
  2. Low-Code als Orchestrierung-Tool:
    • Über die erwähnte Conformance hinaus ermöglicht eine Low-Code-Plattform auch, das Vorgangsmanagement (Case Management) im gewünschten Sinne zu orchestrieren, Teiloptimierungen zusammenzuführen und die Enhancement-Schritte ständig mit dem Prozessmodell abzugleichen. Dadurch können Fehlentwicklungen wie ausufernde, unvollständige oder unproduktive Workflows frühzeitig vermieden werden.
  3. Low-Code als Governance-Tool:
    • Gleichzeitig erleichtert eine Low-Code-Plattform auch die praktische Umsetzung und Kontrolle der identifizierten und vereinbarten Optimierungsmaßnahmen. Sie wird damit zu einem wichtigen Instrument für Führungskräfte, die jederzeit Transparenz über den aktuellen Erfüllungsstand und Abweichungen haben. So können sie bei Bedarf schnell und gezielt eingreifen und korrigieren.
  4. Low-Code als Automatisierungs-Tool:
    • Über die Low-Code-Plattform können dann auch die potenziellen Automatisierungsschritte eingeleitet und umgesetzt werden. Dabei werden die Prozesse identifiziert und automatisiert, die sich am besten dafür eignen, und in die Gesamtstrategie eingebunden. So entsteht eine durchgängige Prozessoptimierung, die alle Teil sinnvoll Ende-zu-Ende miteinander verknüpft.
Portrait von Uwe Specht, dessen Zitat zu Process Mining und Low-Code direkt daneben steht.

„Process Mining hat ein ganz konkretes Ziel: Die Prozesse im Unternehmen zu analysieren, zu optimieren und wo sinnvoll zu automatisieren“, erklärt Uwe Specht, Senior Specialist Solutions Consultant bei Pegasystems. „Manuelles, unkoordiniertes Vorgehen ist dabei der Weg zum Scheitern. Eine Low-Code-Plattform ist deshalb der unverzichtbare Begleiter für die praktische und erfolgreiche Umsetzung von Process Mining auf dem Weg zum durchgängig automatisierten Autonomous Enterprise.“

Uwe Specht, Senior Specialist Solutions Consultant bei Pegasystems (Quelle: Pegasystems)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*