Die wichtigsten BI-Trends

Schon vor Big Data war Business Intelligence ein heißes Thema und laufend wachsende Datenmengen machen es endgültig zum Muss. Die wichtigsten Entwicklungen sind dabei Realtime Analytics, Self Service und Geodaten. [...]

Die Anforderungen bei Reporting, Analyse und Prognosen sind in den letzten Jahren dramatisch gestiegen und haben die bisherigen Datenarchitekturen in Unternehmen unter Druck gebracht – so die Beobachtung der Analysten des Business Research Application Center (BARC). Zwar verlieren bestehende Data-Warehouse-Systeme nicht ihren Wert, doch können sie mit traditionellen Reports und einer vorwiegend auf Transaktionsdaten basierenden Datenhaltung nicht alle Informationsbedürfnisse stillen. Unternehmen müssen immer mehr zusätzliche Datenquellen und -typen berücksichtigen, die aus neuen Datencontainern wie Hadoop stammen.

Häufig werden Big-Data-Projekte parallel zur bisherigen Dateninfrastruktur in sogenannten Sandboxes betrieben. Das oberste Ziel sollte laut BARC aber eine gemeinsame analytische Dateninfrastruktur sein, die auf bisherige und neue Datenquellen zugreift und sie verbindet. Gerade die Ergebnisse aus der Analyse polystrukturierter Big-Data-Inhalte können Kennzahlen liefern, die im bisherigen Data-Warehouse-Datenmodell gefehlt haben. Vorreiterunternehmen integrieren die entsprechenden analytischen Funktionen in ihre Unternehmensanwendungen und können so die Ergebnisse direkt in den operativen Prozessen zur Verfügung stellen.

VERLÄSSLICHE BASIS
Ohne konsistente, vollständige und korrekte Daten fehlt Business-Intelligence-Vorhaben (BI) eine solide Basis, um Entscheidungen unterstützen zu können. Die Datenintegration und das Datenqualitätsmanagement sind daher auch künftig ein Muss. Zusätzlich sollte das Datenqualitätsmanagement organisatorisch durch die Benennung von „Data Stewards“ aus den Reihen der Fachanwender gestärkt werden, rät BARC. Diese sind verantwortlich dafür, dass Qualitätsaspekte wie Datenstandards, Konsistenz oder Korrektheit eingehalten werden.
Ein weiteres Thema bleibt für die Zukunft der Aufbau einer Data Governance, die bislang in vielen Unternehmen ein bloßes Lippenbekenntnis ist. Auch wenn es aufwändig erscheint, Governance-Strukturen und -Prozesse in der eigenen Organisation aufzubauen: Es ist alternativlos. Umso mehr, da die Datenmengen und neuen Datenquellen rasant zunehmen.

Bis heute fehlt in den meisten Organisationen eine ausgeprägte BI-Strategie. Diese umfasst ein Organisationsmodell, den Business Case (Was sind die Prioritäten aus geschäftlicher Sicht?) sowie eine Beschreibung der BI-Landschaft. Bislang scheitert dieses Vorhaben in vielen Fälle bereits in der Phase der Anforderungsanalyse, weil Business und IT nicht eng genug zusammenarbeiten und unterschiedliche Interessen verfolgen. Hilfe verspricht der Aufbau eines cross-funktionalen BI Competence Centers (BICC) oder vergleichbarer Strukturen. Entscheidend für den Erfolg eines BICC ist die regelmäßige Kommunikation mit allen Stakeholdern, bei der Entscheidungen, Implementierungen oder Probleme erläutert und Endanwender einbezogen werden.

REAL-TIME ANALYTICS
Neben der traditionellen OLAP-Analyse haben sich in den letzten Jahren weitere Verfahren und Techniken am Markt etabliert, wie Set-based-, Visual, Real-time oder Predictive Analytics. Sie kommen immer häufiger zum Einsatz, weil sie heutigen Anforderungen und Anwendungsmöglichkeiten in der Datenanalyse beispielsweise in punkto Datenmenge und Geschwindigkeit besser nachkommen. Entsprechende Werkzeuge bieten oft eine am Fachanwender orientierte Arbeitsumgebung, die mehr Flexibilität bei der Informationsnutzung und -aufbereitung gibt. Speziell in Anwendungsszenarien, in denen es um zeitnahe Abfragen und eine ebenso schnelle Bereitstellung von Datenauswertungen oder Events in den operative Prozessen geht, sind Werkzeuge für Real-time oder Streaming Analytics im Kommen.

Die größte Nachfrage werden in den kommenden Monaten Produkte für Predictive Analytics erfahren, prophezeit BARC. Dabei geht es um den Einsatz von Algorithmen zur Vorhersage von Werten. Oft werden solche Produkte mit denen für Data Mining gleichgesetzt, was aber falsch ist, da Data Mining auch die Segmentierung und Assoziierung als Verfahren umfasst, die aber nicht vorhersagend oder vorausschauend sind.

Obwohl Cloud Computing schon länger im BI-Markt genutzt wird, ist die Resonanz insbesondere bei solchen Anwenderunternehmen bislang verhalten, die bereits hohe Investitionen in On-Premise-Lösungen getätigt haben. Dort wo Unternehmen versuchen, einen Teil ihrer BI-Umgebung auszulagern, um Reporting und Dashboards in der Cloud zu erzeugen, geht es in fast allen Fällen um Daten, die bereits vorher in der Cloud waren. Quellsysteme können etwa CRM-Lösungen, Gehaltsabrechnungslösungen oder Helpdesk-Anwendungen sein. Die Verlagerung von BI in die Cloud wird hier als eine Erweiterung der bisherigen Umgebung gesehen und nicht als eine Verlagerung interner Daten in die Wolke. Für alle anderen Unternehmen gilt, dass sie nur dann ihre BI-Infrastruktur in der Wolke neu aufbauen, wenn sich daraus signifikante Einsparungen ergeben, beispielsweise durch eine Vereinheitlichung des Portfolios oder durch geringere Lizenz-, Entwicklungs- oder Hardwarekosten.

Self Service BI (SSBI) wird seit längerem in Organisationen gefordert, weil IT-Abteilungen nicht mehr die steigenden Anforderungen aus den Fachbereichen zeitnah erfüllen können und aus Sicht der Nutzer zu wenig Support leisten. Allerdings wird aus SSBI in der Praxis allzu oft „Self Help BI“, also ein Zoo aus Individualanwendungen und Tools, die sich jede Nutzergruppe selbst zusammenstellt (Schatten-IT). Es muss daher klare Richtlinien für den Softwarekauf sowie für die Datennutzung und -verbreitung geben. Idealerweise arbeiten hierzu Poweruser mit der IT zusammen, um die IT-Infrastruktur unter Kontrolle zu behalten.

Bislang beschränkt sich die Nutzung von Ortsinformationen in BI-Vorhaben meist auf Postadressen. Ein Geocoding, eine tiefere Analyse von Ortsinformationen oder die Einbeziehung geografischer Informationen in den Entscheidungsprozess sind hingegen selten. Dies überrascht laut BARC, weil solche Informationen in der gesamten Wertschöpfungskette nützlich wären. Geschäfte könnten von Ortsinformationen profitieren, um mehr über ihre Kunden zu erfahren und Lieferprozesse zu optimieren. Es wäre daher lohnenswert, künftig neben Transaktionsdaten auch Technik und Wissen aufzubauen, um Geodaten zu nutzen. So könnte beispielsweise im Rahmen eines Big-Data-Projekts die Analyse von Daten aus Ortungsdiensten auf Smartphones, von Sensoren, Fahrzeugen oder anderen stationären Objekten neuartige Informationen mit Ortsbezug für Kundenanalysen liefern.

Die breite Nutzung von Daten und neuer Datenquellen unter Einsatz fortschrittlicher Analyseverfahren wie der Mustererkennung oder dem maschinellen Lernen verspricht innovative Anwendungen und Wettbewerbsvorteile. Diese explorative Nutzung von Daten ergänzt traditionelle BI-Anwendungen, erfordert aber einen anderen technischen und organisatorischen Ansatz. Dieser ist eher mit dem eines Forschungslabors vergleichbar: Wissenschaftler machen Experimente, um Hypothesen bezüglich des Nutzens bestimmter Daten oder Datenmodell zu überprüfen.

DATA SCIENTISTS
Solche Experten, sogenannte Data Scientists, müssen ein umfassendes Wissen über Tools, Modelle und Daten mitbringen, das normalerweise nicht von einer Person allein abgedeckt werden kann. Ebenso werden Expertise in der Datenintegration, in Abfragesprachen und der Anwendungsentwicklung, Erfahrung mit mathematischen und statistischen Methoden mit Data Mining, Domänen- und Prozesswissen sowie Visualisierungs- und Kommunikationskenntnisse benötigt. Unternehmen sollten daher schon heute mit der Schaffung entsprechender Teams beginnen.

Ein vieldiskutierter Ansatz zur Verbesserung der Planung ist die treiberbasierte Planung. Hier konzentriert man sich auf wesentliche Einflussfaktoren und lässt die finanziellen Konsequenzen automatisch ableiten. Konsequent umgesetzt erhält man eine Wirkungskette von den Basistreibern bis zur finanziellen Spitzenkennzahl. Die treiberbasierte Planung ermöglicht eine Verringerung der Detailtiefe und Komplexität von Planungsprozesse und hilft bei Simulationen. Ferner versprechen Predictive Analytics und Methoden im Forecasting einen großen Mehrwert für den Planungsprozess, indem sie helfen, ein besseres Verständnis für die Wirkung zentraler Treiber zu entwickeln, und durch solide Prognosen bislang manuelle Planungs- und Forecasting-Verfahren verbessern. (pi/oli)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*