6 Beispiele für erfolgreiche BI- und Big-Data-Projekte

Angesichts sich immer schneller ändernder Rahmenbedingungen ist die Bedeutung von Datenanalyselösungen rapide gestiegen. [...]

Stefan Müller ist Director Big Data Analytics bei it-novum. (c) it-novum

Unternehmen müssen in immer kürzerer Zeit immer weitreichendere Entscheidungen treffen. Dazu brauchen sie einen verlässlichen Datenbestand, der einerseits alle Informationen der Organisation enthält und andererseits rasch und unkompliziert ausgewertet werden kann.

Die nachfolgenden, branchenübergreifenden Praxisbeispiele zeigen, wie Unternehmen Daten systematisch analysieren und große Datenvolumen in Echtzeit und mit hoher Qualität verarbeiten können, mithilfe einer offenen Business- und Big-Data-Plattform. In unseren Beispielen ist das Pentaho. Die Beispiele sind der Broschüre „Data Analytics in der Praxis“ entnommen.

  1. STIWAs Lösung zur Anlagenüberwachung: intelligente Analysesoftware mit Data Warehouse

Wenn Produktionsanlagen in Betrieb genommen oder gewartet werden, muss der Betreiber jede Komponente einzeln und im Zusammenspiel mit den anderen Bauteilen betrachten. Ohne eine innovative Analysesoftware in Kombination mit einer Datenbank ist das kaum machbar. Erst dies stellt in der Produktion die Durchgängigkeit vom Signal bis zum ERP her. Die Bedienung der Anlage und damit alle Maschinen-, Prozess– und Produktdaten müssen automatisch und lückenlos erfasst werden. STIWA hat nun die passende Lösung: ein Datenanalysetool mit integriertem Data Warehouse, das die Daten nicht nur erfasst und miteinander verknüpft, sondern auch visualisiert und auswertet. Dafür muss die Software in die Produktionsanlagen bis auf Komponentenebene hineinzoomen können.

Solch eine Datenanalyse zahlt sich für STIWA-Kunden aus: Die Anlagenhochlaufzeit bei der ersten Inbetriebnahme wird um zirka 25 Prozent verkürzt, und die Gesamtanlageneffektivität (OEE) nimmt um durchschnittlich 15 Prozent zu. Auch wenn eine Anlage nicht die geforderte Leistung bringt, hilft die gesteuerte Datenanalyse weiter. Ausgehend von der OEE-Kennzahl lassen sich die Ursachen für das Problem immer weiter eingrenzen. So kann der Anlagenleiter entscheiden, ob er die Instandhaltung, die Prozesstechnik oder die Logistik mit der Lösung des Problems beauftragen soll.

  1. Ein Data Warehouse für die Bundespolizei

Die deutsche Bundespolizei hat ein Data Warehouse aufgebaut, das alle relevanten Daten für die Erstellung der Polizeilichen Eingangsstatistik umfasst. Die Informationen kommen von verschiedenen Quellen aus den 160 Revieren, 80 Inspektionen, zehn Direktionen und dem Präsidium. Im neuen Data Warehouse werden die Daten aufbereitet und qualitätsgesichert. Sie stehen nun innerhalb kürzester Zeit für die Beantwortung von Anfragen aus Parlament, Polizeipräsidium, Bundesinnenministerium, EU und Frontex zur Verfügung.

Vor der Einführung des Data Warehouse erfasste die Bundespolizei die „Polizeiliche Eingangsstatistik“ in mehr als 70 Excelsheets. Die Dienststellen vor Ort trugen jeden statistisch relevanten Vorgang manuell ein und übersandten die Exceltabellen an die übergeordneten Direktionen. Diese führten die Daten nach ihrer Prüfung zusammen und übermittelten sie an das Präsidium. Dort der gleiche Vorgang: Daten prüfen und zusammenfassen, dieses Mal bundesweit. Bis die Daten offiziellen Stellen zur Verfügung standen, dauerte es einen Monat.

Nun, durch das Data Warehouse und umfassende Datenintegrationsprozesse, fertigen die Beamten mit wenigen Klicks die Auswertungen an und schicken sie der anfragenden Stelle ohne großen Zeitverzug zu. Die gesamte „Polizeiliche Eingangsstatistik“ mit insgesamt 20 polizeilichen Handlungsfeldern ist im Data Warehouse abgebildet. Aufwendige Scripte gehören der Vergangenheit an.

  1. Bosch – Weltweites Projekt-Reporting

Als Global Player steuert Bosch mehr als 1.500 Kundenprojekte weltweit. Dafür setzt der Konzern eine unternehmensweite Reporting-Plattform ein. Die Daten stammen aus zahlreichen Quelldatensystemen, unter anderem verschiedenen Telefonanlagen, Zeiterfassungs-, E-Mail- und SAP-Systemen und selbst aus externen Kundendatenbanken. Aus ihnen generieren sich die operativen Kennzahlen für die Projektsteuerung sowie die finanziellen Kennzahlen für das Management. Die Kennzahlen umfassen zum Beispiel eingegangene und beantwortete Anrufe, vom Kunden aufgelegte Anrufe, Umsatz, Kosten und Gewinn – tagesaktuell und pro Projekt.

Eine besondere Herausforderung dabei ist, Daten aus unterschiedlichen Quellen so zusammenzuführen, dass einheitliche Umsatz- und Kostenreports daraus entstehen. Neben den Mitarbeitern können auch Zulieferer und Kunden auf das System zugreifen und ausgewählte Reports nutzen. Bei der Auswahl des Software-Systems waren drei Kriterien maßgebend.

  • Anwendungsvielfalt: Sowohl bei der Anbindung von Datenquellen als auch den Ausgabemöglichkeiten sollte der Nutzer viel Spielraum haben.
  • Nutzerfreundlichkeit: Ein Datenbankexperte muss die Software in vertretbarer Zeit beherrschen können.
  • Sicherheitsarchitektur: Die Daten-Plattform soll sich auch für Externe, etwa Zulieferer und Kunden, öffnen lassen, ohne dass Sicherheitsrisiken entstehen.

Bosch hat sich für eine Standardsoftware entschieden, sodass die eigenen Mitarbeiter sie anpassen und weiterentwickeln können.

  1. „Deutsche See“ steuert ihr Geschäft per Datenportal

Der deutsche Marktführer für Fisch und Meeresfrüchte arbeitet seit Jahren mit einer umfassenden Vertriebssteuerung. Die über 300 Nutzer kommen aus allen Unternehmensbereichen: von der Geschäftsführung und dem Vertrieb über Einkauf, Controlling und Marketing bis hin zu Produktion und Logistik. Für Geschäftsführung und Vertrieb bietet die Datenbank Zugriff auf Verkaufsdaten und andere wichtige Sales-Kennzahlen. In 20 Cubes sowie 300 Dimensionen und KPIs sind alle vertriebsrelevanten Daten – beispielsweise Kunden, Kontaktdaten, Belege oder Artikel mit Mengen und Umsätzen – gespeichert. Diverse Standard-Reportings, vorgefertigte Individualanalysen und die Kundenbesuchsvorbereitung stehen nicht nur dem Außendienst zur Verfügung.

Bedarfsweise lassen sich Daten nach verschiedenen Themenfeldern aufbereiten, etwa nach Kunden, Unternehmen, Verkauf, Service und Markt. Momentan sind 100 Berichte angelegt, weitere sind in Planung. Die Mitarbeiter können auch selbst Berichte erstellen. Da sich Deutsche See für eine Open Source-Lösung entschieden hat, fallen keine Lizenzkosten an. Einer der wichtigsten Vorteile: Gute grafische Darstellungen der Daten haben die bisherigen Exceltabellen abgelöst. Die Verantwortlichen sparen so nicht nur Zeit, sondern können die Daten schneller interpretieren – manchmal auf einen Blick. Zudem können Nutzer Reports wahlweise manuell oder automatisiert verschicken. Alle Berichte lassen sich auch von unterwegs über mobile Endgeräte aufrufen und flexibel zu individuellen Reports zusammenstellen. Seit das Unternehmen zudem ein webbasiertes Reportingportal aufgebaut hat, haben die Mitarbeiter einen zentralen Einstiegspunkt und Arbeitsbereich. Sie greifen immer auf einen einheitlichen und aktuellen Datenbestand zu.

  1. CERN: Die größte Forschungsinstitution der Welt setzt auf Pentaho

Das CERN ist die größte Forschungseinrichtung der Welt. Die Organisation setzt seit 2014 auf eine einheitliche Datenlösung mit Datenintegration, Reporting, Analytics und Dashboards mit 15.000 Nutzern. Im Business Computing steht das CERN besonders in den Bereichen Datenbank, Business Intelligence und Reporting vor spezifischen Herausforderungen. Seine Datenplattform musste daher an die spezifischen Bedürfnisse der Organisation angepasst werden. Um alle internen Inhalte zu beherrschen, wurde um sie herum eine Infrastruktur aufgebaut. Die vom CERN entwickelten Werkzeuge ermöglichen eine erweiterte Suche und Terminierungsfunktionen, unterstützen die delegierte Verwaltung von Schemata einschließlich Freigabe- und Umgebungsunterstützungsfunktionen, sowie eine Integration mit dem Versionskontrollsystem „Git“. Diese Tools helfen, den Betrieb einer Umgebung mit mehr als 15.000 potenziellen Anwendern sicherzustellen. Die eingesetzte Lösung stellt ein mächtiges Datenintegrations-Tool und Funktionen für Reporting, Datenanalytik und Visualisierung bereit.

Die Tatsache, dass die meisten der Tools als Open Source Software zur Verfügung stehen, erlaubt den CERN-Entwicklern, den vorhandenen Code einfach zu untersuchen und die eigenen Lösungen darin zu integrieren. Der Umstand, dass Pentaho in Java geschrieben ist, erweist sich als besonders praktisch, da das CERN intern Java beziehungsweise JVM als Technologie für alle Eigenentwicklungen einsetzt. Trotz des ganzen Hypes um Big Data bleiben „simples“ Reporting und Datenvisualisierung für das CERN wesentlich. Deshalb sind die Visualisierungs- und Reporting-Komponenten genauso wichtig wie die Analysefunktionen der Lösung.

  1. Swissport: Einfachere Datenintegrationsprozesse

Swissport ist die weltweit größte Servicegesellschaft für Flughäfen und Fluggesellschaften. Das Unternehmen wertet nahezu alle operationellen Systeme aus. Die Unternehmensdaten dienen der Planung von Flügen und Personal, der Budgetierung oder auch der Berechnung von KPIs. Swissport optimiert seine Datenintegrationsprozesse kontinuierlich. Beispielsweise, um die Verrechnung mit SAP in einen weltweiten Zusammenhang zu stellen. Dazu kommt, dass Swissport die Business-Logik aus den ETL-Jobs ausgegliedert hat. Die Business Rules werden extern erstellt und gepflegt. Somit gibt es eine Trennung von IT (Code/Prozessen) und Business Rules.

Ausgelagerte Geschäftsregeln ermöglichen es, dass ein einziger IT-Datenverarbeitungsprozess für alle Swissport-Betriebseinheiten an verschiedensten Flughäfen läuft, dabei aber gleichzeitig die Unterschiede der verschiedenen Swissport-Stationen und die Verträge mit den Kunden berücksichtigt werden. Eine mögliche Geschäftsregel wäre etwa: „Wenn der Kunde 25 Jahre alt ist und in Frankfurt wohnt, dann führe eine Aktion aus: Kalkuliere einen Rabatt.“ Die Geschäftsregeln werden in einer Applikation gepflegt und sind nicht in die Software oder die IT-Prozesse eingebettet. Das macht die IT-Prozesse schlanker, übersichtlicher und damit agiler, bei gleichzeitig erhöhter Qualität. Die Verantwortung für die ausgelagerten Geschäftsregeln kann der Business-Experte übernehmen – also jemand aus dem Betrieb vor Ort, der die Regeln kennt und der für sie verantwortlich ist oder sie in einem Vertrag mit dem Kunden definiert hat.

Den Praxistest bestanden

Alle beschriebenen BI- und Big-Data-Projekte sind heute erfolgreich umgesetzt – die IT-Lösungen haben sich mittlerweile im Betrieb bewährt. Die Beispiele zeigen, dass Big Data und Business Intelligence keine Luftschlösser mehr sind. Ob in der Privatwirtschaft oder in der öffentlichen Verwaltung: Data Analytics ist gelebte Praxis. Eine Broschüre mit Interviews zu den einzelnen Projekten ist in der kostenlosen Broschüre „Data Analytics in der Praxis“ erhältlich. Diese und weitere Anwenderinterviews finden Sie in der kostenlosen Broschüre „Data Analytics in der Praxis“.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*