Neues Data Warehouse für die TroGroup

Mit einer neuen Data-Warehouse-Lösung hat die TroGroup begonnen, ihr Reporting- und Planungswesen auf eine effizientere und einheitliche Basis zu stellen. Unterstützung für das Projekt liefert der IT-Lösungsspezialist DCCS. [...]

Um die täglich steigende Menge an geschäftskritischen Daten zentral verwalten zu können, suchte die TroGroup nach einer modernen Data-Warehouse-Lösung. (c) TroGroup

Die TroGroup vereint die Marken Trodat, als weltweit größter Stempelproduzent, und Trotec, als führender Anbieter von Lasermaschinen zum Gravieren, Schneiden und Markieren, unter einem Dach. Die Unternehmensgruppe erwirtschaftete 2021 einen Umsatz in der Höhe von 289 Millionen Euro und beschäftigt rund 1.970 Mitarbeiter:innen in 44 Tochtergesellschaften weltweit. Um die täglich steigende Menge an geschäftskritischen Daten zentral verwalten und analysieren zu können, suchte die TroGroup nach einer modernen Data-Warehouse-Lösung. „Ausschlaggebend war die Einführung eines neuen Reporting- und Planungstools, um das in die Jahre gekommene Reporting-System abzulösen. Als Fundament dafür benötigten wir eine zentrale Datenbasis als Single Point of Truth“, erklärt Barbara Mayrleitner, Enterprise Analytics Professional bei TroGroup, die Anforderungen.

Skalierbare, flexible Lösung gesucht

Mit ihren zahlreichen Niederlassungen und heterogenen Strukturen hat die TroGroup unterschiedliche ERP-, CRM- und weitere Systeme im Einsatz. Hauptziel des Data-Warehouse-Projekts ist es, eine zentrale Datenbasis für Reporting, Planung und Analyse zu schaffen und dabei die verschiedenen Datenquellen – wie SAP ERP und SAP BW, aber auch Salesforce CRM und ein Sage HR-System – anzubinden. „Darüber hinaus sollte die Lösung auch flexibel und offen für weitere Systeme, wie etwa unser Produktinformationsmanagement (PIM), sein und Dienste wie Data Quality Services und Master Data Management zur Anreicherung und Überprüfung von Stammdaten bieten“, sagt Mayrleitner. Zusätzlich wurden bidirektionale Schnittstellenfunktionen gefordert, um Daten im Data Warehouse für angebundene Systeme verfügbar zu machen und somit eine Art Middleware-Funktion zu übernehmen – beispielsweise Artikeldaten für das eCommerce-System oder Personalinformationen für das Intranet. Außerdem sollten wichtige KPIs, wie beispielsweise rollierende 12-Monats-Umsatzzahlen, direkt an die CRM-Systeme zurückgespielt werden.

Zentrale Datenbasis als Single Point of Truth

Bevor die aus den unterschiedlichen Quellen stammenden Daten für die weitere Verwendung zur Verfügung gestellt werden können, müssen sie bereinigt (z.B. von Duplikaten), um weitere Stammdaten angereichert, zusammengeführt und strukturiert werden. Die Berechnung von KPIs ist eine zentrale Aufgabe. „Die Steigerung der Effizienz in der Datenaufbereitung, speziell für das Controlling, war ein wichtiges Ziel. Die neue Lösung sollte den Prozess nicht nur automatisieren, sondern auch skalierbar sein und die Datenqualität und Transparenz verbessern“, sagt Mayrleitner. Auf der Suche nach einem Umsetzungspartner sondierte die TroGroup zuerst den Markt, um schließlich drei Anbieter in die Endrunde zu holen. „Wir entschieden uns für DCCS. Mit dem IT-Spezialisten haben wir bereits sehr gute Erfahrungen gemacht. Außerdem präsentierte DCCS das schlüssigste Lösungskonzept, welches optimal für unsere Anforderungen gepasst hat“, so die Analytics-Spezialistin.

Microsoft- und SAP-Welt kompetent verknüpft

Zu Beginn des gemeinsamen Projekts standen Workshops vor Ort, wobei sich die umfassende Expertise des Dienstleisters sowohl im Microsoft- als auch SAP- und Salesforce-Bereich als gewichtiger Vorteil erwies. Nach der Konzeption der Architektur sowie der Planung der Umsetzung starteten DCCS und die TroGroup anhand erster Use Cases die Datenmodellierung. „Hier hat uns das bei DCCS tief verankerte SAP-Know-how sehr geholfen und vieles beschleunigt“, erinnert sich Mayrleitner. Für die enge Zusammenarbeit wählte man einen agilen Ansatz in der Microsoft Azure DevOps-Umgebung, mit schrittweisen Sprints und Tests zur Validierung der Teilergebnisse. Als Basistechnologie wählte man die Microsoft Data Platform. „Das war unsere erste Wahl, um unabhängig von speziellen Lösungsanbietern zu sein. Außerdem bietet das System viel Flexibilität, zahlreiche Standard-Konnektoren und viele integrierte Features, wie zum Beispiel Data Quality Services zur Datenbereinigung“, sagt Mayrleitner.

Aufbauend auf der Datenmodellierung im Data Warehouse, wurde die Anbindung des Reporting- und Planungs-Tools „BOARD“, das bei der TroGroup als neues zentrales Berichts- und Planungs-Tool dient, implementiert. Die Umsetzung verlief planmäßig, einzig die Datenqualität sorgte, bedingt durch unterschiedliche Quellsysteme und Informationsstrukturen, für Herausforderungen. Auch teilweisende fehlende Implementierungen von SAP Standards bremsten den Projektfortschritt ein wenig. Mit einem Datenkorrekturprozess (mittels Data Quality Services und Power BI-Berichten) und dem Einsatz von Master Data Services konnten einige dieser Hürden zügig überwunden werden.

Einheitliche Sicht auf relevante Daten

Das neue Data Warehouse führt alle geschäftskritischen Informationen zentral zusammen. Dabei ist SAP ERP das wichtigste Quellsystem, gefolgt von Salesforce und der Sage HR-Lösung. Hauptabnehmer der Daten ist das BI-Tool BOARD, mit dem die unterschiedlichen Fachbereiche, wie Controlling, Finance, Vertrieb, Produktmanagement, Personalabteilung und Geschäftsführung, jederzeit Reports aufrufen und Planungen, wie etwa im Rahmen des Budgetierungs-Prozesses durchführen können. Ebenfalls angebunden sind die Zielsysteme PIM, das Stammdaten über das Data Warehouse aus SAP erhält, sowie Salesforce, das mit Microsoft Azure Data Factory integriert ist. Die Benutzer greifen nun direkt auf eine einheitliche Datenbasis zu. Damit lassen sich Reports wie Umsätze pro Monat, aber auch aufbereitete Daten für Einkauf und Produktion, HR oder Finanzbuchhaltung jederzeit aus dem System ziehen. „Zu den wichtigsten Reports zählen aktuell HR-, Sales- und Finanz-Berichte sowie einige Applikationen einer integrierten Planung“, meint Mayrleitner. Zusätzlich dient der Power BI Report Server als Basis für weitere benötigte Berichte, etwa Laufzeit- und Datenqualitäts-Reports.

Voll automatisierter Datenfluss

Der Datenfluss von den Quell- zu den Zielsystemen ist nun vollständig automatisiert. Dabei werden während des Nachtlaufs Daten aus den Quellsystemen abgerufen, Informationen umgewandelt bzw. verarbeitet und an die Zielsysteme übertragen. Die bereits aufbereiteten Daten sind nun für die User leicht zugänglich und nutzbar. „Zuvor waren diese Abläufe mit vielen manuellen Tätigkeiten verbunden. So haben wir etwa aus SAP riesige Excel-File-Reports gezogen. Das war nicht nur fehleranfällig und zeitaufwändig, sondern auch kaum skalierbar“, schildert Mayrleitner. Mit der neuen Lösung hat die TroGroup gleich mehrere Fliegen mit einer Klappe geschlagen. Neben der Automatisierung des Prozesses zählen die zentrale Datenhaltung und die spezielle, im System verankerte Businesslogik zu den wesentlichen Vorteilen. Außerdem lassen sich beliebig viele Systeme anbinden und mit denselben Daten versorgen. „Diese hohe Flexibilität und Skalier-Fähigkeit bietet großes Potenzial für neue Systeme, Prozesse und Anwendungen“, meint Mayrleitner. Betrieben wird die Datenbanklösung aktuell im Hybridmodus (On-Premises und Microsoft Azure), wobei ein Umstieg auf die Cloud jederzeit möglich ist.

Derzeit nutzen rund 190 User die neue Lösung, um mittels des BOARD BI-Tools effizient auf Reports und Planungen zuzugreifen. Dabei hat sich gezeigt, dass viele manuelle Aufwände abgelöst, und Fehlerquellen minimiert wurden. „Mit dem neuen Data Warehouse haben wir einen Single Point of Truth geschaffen“, ist Mayrleitner überzeugt. „Wir profitieren von deutlich höherer Datenqualität und gesteigerter Transparenz sowie Effizienz. Die Nutzer können jederzeit auf bereits aufbereitete Daten zugreifen, diese in Excel holen und rasch aktuelle Reports anfertigen.“ Wie effizient das System unterstützt, belegt die Analytics-Spezialistin so: „Bisher benötigten wir einige Tage nur für einen speziellen Controlling-Report. Heute ist diese Aufgabe dank automatisiert aufbereiteter Daten inkl. Validierung in wenigen Stunden erledigt.

Mit Ausbau weitere Potenziale nutzen

Für das gemeinsame Data-Warehouse-Projekt gibt es bereits konkrete Ausbaupläne. Einerseits soll das Reporting durch die Anbindung neuer Quellobjekte und weiterer Datenmodellierungen für zusätzliche Reports weiter ausgebaut, sowie eine stärkere Nutzung von Power BI angestrebt werden. Zum anderen wird die TroGroup ihr ERP-System demnächst schrittweise auf SAP S/4HANA umstellen, was umfangreiche Anpassungen der Datenbankobjekte und -prozesse bedingen wird, zumal ein Parallelbetrieb von R/3 und S/4HANA geplant ist und sich durch den Greenfield-Ansatz des S/4HANA Projekts zahlreiche Prozesse, Strukturen und Stammdaten ändern werden. Geplant ist auch, weitere Systeme und Informationen in das Data Warehouse zu integrieren, etwa die Telemetriedaten der Lasermaschinen. Auch hier setzt die TroGroup auf das Technologie-Know-how und den Erfahrungsschatz von DCCS. „An der Zusammenarbeit schätzen wir besonders die breit gefächerten Kompetenzen und das umfassende Technologie-Know-how des DCCS-Teams. Aber auch die pragmatischen Lösungsansätze, die rasch zum Ziel führen, haben uns überzeugt“, resümiert Mayrleitner.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*