Entscheidend ist eine saubere Datenlogistik

Der Erfolg von Business-Intelligence-Projekten steht und fällt mit der Qualität des dahinterliegenden Data Warehouse. Wird die Datendrehscheibe sauber aufgesetzt, dann steht auch dem Wunsch vieler Anwender nach mehr Self-Service nichts im Wege. [...]

Der Markt für Business-Intelligence-Software (BI) ist trotz einiger größerer Übernahmen in den letzten Jahren wie beispielsweise Cognos durch IBM oder Business Objects durch SAP nach wie vor sehr zersplittert. Alleine im deutschsprachigen Raum gibt es an die 200 verschiedene Softwarelösungen, was Unternehmen die Auswahl eines passenden Werkzeuges deutlich erschwert. Mit der ÖCI-BARC-Tagung wollen das Österreichische Controller Institut (ÖCI) und der BI-Berater Business Application Research Center (BARC) Orientierung im Angebotsdschungel bieten.

Die 9. Auflage der ÖCI-BARC-Tagung fand am 23. und 24. April in Wien statt und bot „in zwei Tagen einen strukturierten Marktüberblick mit direktem Produktvergleich“, wie Mirko Waniczek, Partner bei Contrast Management Consulting und fachlicher Leiter der Tagung, im Gespräch mit der COMPUTERWELT erklärt. „Die Kombination aus Live-Präsentationen verschiedener BI-Lösungen, ergänzt um eine unabhängige Einschätzung bezüglich Funktionalität, Vorteilen und Herausforderungen ist einzigartig.“ Erstmals wurden heuer zwei Best-Practice-Awards für erfolgreich umgesetzte BI-Projekte vergeben (mehr dazu in den beiden Kästen).

INTEGRIERTE PLANUNG
Einer der Trends, die Waniczek derzeit beobachtet, ist eine Renaissance von integrierter Planung bzw. von Planungslösungen, die Gewinn- und Verlustrechnung (GuV), Bilanz und Cashflow integrieren. „Finanzielle Steuerung, die sich nicht nur auf Erfolg oder Rentabilität – Stichwort GuV – bezieht, sondern auch Liquidität, Finanzierung, Verschuldung, bilanzielle Themen mitnimmt, wird immer wichtiger.“ Trotzdem verfügen viele Unternehmen nach wie vor nicht über professionelle Werkzeuge für Planung und Reporting. „Wenn ich mit Excel plane – nach wie vor der Marktführer bei den Planungslösungen –, dann tue ich mir natürlich schwer, diese Integration herzustellen. Da fehlen auch die Tool-Mittel. GuV, Bilanz und Cashflow stehen ja nicht wie drei Arbeitsblätter in Excel nebeneinander, sondern da gibt es inhaltliche Verknüpfungen.“ Ein Umsatzerlös in der GuV wird beispielsweise zu einer Forderung in der Bilanz und wenn die Forderung bezahlt wird, ein Cash-Zufluss im Cashflow. „Diese Dinge sind logisch verdrahtbar und sollten auch verdrahtet werden“, sagt Waniczek, „aber da haben viele Unternehmen – auch große Unternehmen – keine adä­quaten Instrumente im Einsatz.“

EVERGREEN EXCEL
Kein Wunder. Denn nicht nur Controller lieben ihre Excel-Files und oft fragt man sich, inwiefern hier überhaupt der Wille da ist, modernere Werkzeuge zu verwenden. „Es ist unrealistisch, sich eine Welt vorzustellen, in der Excel bei solchen Themen keine Rolle spielt“, erklärt Waniczek. Trotzdem sei es wichtig, zu erkennen, dass es auch Anforderungen gibt, die in Excel nicht adäquat unterstützbar sind. „So etwas wie einen Planungsprozess, wo es mehrere Schleifen gibt, in denen Daten eingesammelt, konsolidiert, verändert, verteilt und in einer zweiten Schleife wieder eingesammelt werden, so etwas geht mit Excel natürlich nicht.“

Empfehlenswert wäre Waniczek zufolge eine Koexistenz, in der Excel als Frontend dient, mit dem auf eine mächtigere Datenbank im Hintergrund zugegriffen wird. „Wenn Excel nur das Frontend ist, das etwas in eine Datenbank schreibt, wo Daten versioniert, gespeichert und in Varianten wiederverwendet werden können, dann spricht ja nichts dagegen, dass es auf der Oberfläche Excel ist.“ Außerdem hat Excel aufgrund des relativ hohen Self-Service-Faktors durchaus auch seine Vorteile: „Es gibt halt im Arbeitsleben viele Themenstellungen, die nicht strukturiert sind und da brauche ich dann eben ein Tool, mit dem ich auch mal anlassbezogen individuell was machen kann“, erklärt Waniczek. „Insofern ist ein hybrider Ansatz zweckmäßig.“

SAUBERE DATENLOGISTIK
Doch selbst mit der Auswahl einer modernen BI-Software ist es noch lange nicht getan, wie BARC-Österreich-Geschäftsführer Alexander Gebath in seiner Keynote auf der ÖCI-BARC-Tagung feststellte: „Die meisten Unternehmen unterschätzen BI-Projekte gewaltig. Sie glauben, sie kaufen sich eine Software und das war’s.“ Das Problem sei häufig die Excel-Denke der Fachbereiche, die glauben, dass sich die Daten ja ohnehin im Vorsystem befinden und es mit einem neueren Tool ja dann umso schneller gehen müsste. „Die große Gefahr ist, dass man eine BI-Architektur aufbaut, die zu sehr von den Produkten eines einzelnen Herstellers abhängig ist“, erklärt Gebath im Gespräch mit der COMPUTERWELT. Gerade Unternehmen, die mehrere BI-Anwendungen bauen wollen, brauchen daher zuerst einmal eine vernünftige Datenlogistik.

Ideal ist eine Art Datendrehscheibe, die vorgelagert zur eigentlichen BI-Anwendung arbeitet. Sollten Unternehmen dann feststellen, dass die BI-Software nicht mehr passt, oder wollen sie mit einer anderen Software auf die gleichen Daten zugreifen, dann zahlt sich einer saubere Datenlogistik im Hintergrund aus. Diesen Aspekt sehen die Fachbereiche aber nicht, weil es eher ein IT-Aspekt ist, und daher werden BI-Projekte von den Fachbereichen oft unterschätzt. „Alle reden von Agilität und Flexibilität, aber es ist das Gegenteil davon, wenn man einfach Daten irgendwo hineinlädt“, sagt Gebath. Das funktioniere zwar vielleicht im Moment sehr schnell und sehr gut, aber langfristig betrachtet eben nicht. „Irgendwann hat man dann als Unternehmen nämlich das gleiche Problem wie in Excel, nur mit einer anderen Technologie: ein Wirrwarr an Anwendungen, die untereinander nicht mehr konsistent sind.“ Unternehmen, die eine saubere Datendrehscheibe, ein sauberes Data Warehouse aufbauen, hätten dagegen zumindest einmal das Thema Datenkonsolidierung abgesichert. „Wenn ich dann darauf weitere Anwendungen aufsetzen will, bin ich frei, das zu tun, und muss nicht mein Gesamtprojekt wegschmeißen.“

SEXY TOOLS ALLEINE ZU WENIG
Ein wichtiger Punkt ist in diesem Zusammenhang die Trennung von IT- und Fachbereichsverantwortung. Die IT-Abteilung muss für eine solide und konsistente Datenbasis sorgen,sodass die Fachbereiche, die auf die Daten zugreifen, die Gewissheit haben, dass die Daten auch stimmen. „Dann erst kommt die Agilität zum Tragen, dann kann man Tools verwenden, die sehr fachbereichstauglich sind, weil dann kann man nicht mehr sehr viel falsch machen“, sagt Gebath. Schummelt man dagegen bei der Datenlogistik, dann wird es auch mit sexy Tools wie zum Beispiel Qlikview nicht besser. „Ganz im Gegenteil, es wird eher schlechter, weil man dann sehr schnell sehr viel machen kann, aber die Gefahr, dass das inkonsistent wird, ist sehr viel größer.“

Einer der Gründe für den weit verbreiteten Irrglauben auf Anwenderseite, dass BI-Projekte einfach und schnell gehen, ist Gebath zufolge das irreführende Marketing mancher Softwarehersteller. „Anbieter wie Qlik sagen: alles kein Problem, man nimmt die Daten, der Fachbereich kippt die schnell in die Software hinein und kann dann sofort analysieren.“ Marketingtechnisch sei das natürlich sehr gut verwertbar, aber am Ende des Tages würden sich die angesprochenen Probleme mit solchen Produkten nicht lösen lassen. „Fachanwender sehen da zwar im ersten Schritt schnell einen Nutzen, aber langfristig betrachtet würde ich da sehr vorsichtig sein.“ Laut Gebath treffen hier eine gewisse Marketing-Blenderei von Anbietern und der Leidensdruck der Fachanwender aufeinander, die schnell Lösungen brauchen.

INTERNES KNOWHOW AUFBAUEN
Eine weitere Empfehlung für Unternehmen, die BI-Software einführen wollen, ist der Aufbau von internem Knowhow, damit man nicht bei jeder kleinen Änderung vom Softwareanbieter abhängig ist. Hand in Hand mit dem Knowhow-Aufbau geht die Bereitstellung entsprechender interner Projektressourcen, für die Gebath eine Faustregel parat hat: „Die Anzahl an Tagen, die ein Berater oder ein Softwareanbieter bei einem BI-Projekt unterstützt, die muss man als Kunde mindestens auch selber investieren, wenn nicht mehr.“ Das ist nicht wenig, wenn man bedenkt, dass es durchaus üblich ist, dass Berater zwischen 50 und 100 Tagen an solchen Projekten arbeiten. „Das zieht eben auch entsprechend viel internen Aufwand nach sich und wenn dafür keine dezidierten Ressourcen bereitstehen, sondern nur ein Controller und jemand aus der IT ein paar Stunden in der Woche dafür Zeit haben, dann ist das deutlich zu wenig.“

Gebath zufolge sei die Bereitstellung von internen Ressourcen letztendlich auch einer der entscheidenden Faktoren bei den beiden Siegerprojekten gewesen: „Die haben sich ihren BI-Erfolg zu einem großen Teil auch selbst erarbeitet.“ Er empfiehlt daher, lieber etwas langsamer vorzugehen und Basis-Knowhow aufbauen, als zu versuchen, zu schnell zu viel auf einmal umzusetzen, was den Effekt hat, dass dann erst wieder der externe Dienstleister einen Großteil der Arbeit übernehmen muss. „Man kann natürlich jederzeit noch fünf Berater mehr dazusetzen. Aber das Problem ist, dass diese Berater viele Fragen haben, die nur der Kunde beantworten kann. Spätestens da ist dann der Flaschenhals, weil intern zu wenig Ressourcen zur Verfügung stehen, die sich überhaupt diesen Fragen widmen können. Und der Berater ist auch aus dem Schneider, weil er ja gesagt hat, dass er die Timeline nicht gewährleisten kann, wenn er bestimmte Informationen nicht bis zu einem bestimmten Zeitpunkt bekommt.“

Stehen die entsprechenden internen Ressourcen bereit, dann lässt sich auch eine der derzeit wichtigsten Anforderungen vieler Fachbereiche umsetzen: ein hoher Self-Service-Grad. Hier spannt sich auch der Bogen zurück zu einer ausgeklügelten Datenlogistik im Hintergrund: „Self-Service funktioniert dann, wenn man eine entsprechend saubere Architektur aufzieht und selber Knowhow aufbaut“, erklärt Gebath. Haupttreiber für Self-Service ist der Wunsch der Fachabteilungen, selbst neue Berichte anlegen und Adhoc-Analysen durchführen zu können. Mit einer guten Architektur ist aber noch viel mehr möglich: „Auf diese Weise kann die IT beispielsweise sogenannte Sandboxen für die Fachbereiche aufbauen, quasi Spielwiesen, in der die User zum Beispiel externe Informationen dazuholen und Dinge verknüpfen können, die bisher noch nicht verknüpft wurden.“ Doch wie gesagt: Alles steht und fällt mit der Qualität des dahinterliegenden Data Warehouse. (oli)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*