Für die Experten und Expertinnen des ITWelt.at-Roundtables war klar, dass KI auch im BI-Bereich enorme Potenziale bietet. Jedoch sind Datenqualität, Governance und domänenspezifisches Wissen sowie realistische Erwartungenentscheidend, um Vertrauen und nachhaltigen Mehrwert zu schaffen. [...]
Im ITWelt.at-Roundtable diskutierten im Wiener Büro von IBM Österreich sechs Expertinnen und Experten die unterschiedlichen Facetten, Herausforderungen sowie Potentiale von KI im BI-Bereich: Nikolaus Marek, Technical Sales Leader bei IBM, Larisa Stanescu, Leiterin des KI Competence Center bei der WienIT, Alfred Grünert, Global AI-Lead bei COSMO CONSULT, Hille Vogel, Vertriebsleiterin bei Nemo, Michael Kommenda, Senior Consultant AI, Tietoevry sowie Alexander Penev, CEO und Gründer von ByteSource.
KI als Game Changer
Leiterin des KI
Competence Center
bei WienIT
© timeline/Rudi Handl
Nikolaus Marek bezeichnet die KI als Game Changer – auch für den BI-Bereich. Denn, so Marek: »KI eröffnet heute die Möglichkeit, direkt mit Daten zu interagieren. Das ist für die Nutzer ein großer Vorteil. Anstatt lange nach Dashboards zu suchen, können Anwender Fragen in natürlicher Sprache stellen und erhalten sofort Insights. Das demokratisiert den Zugang zu Daten und schafft neue Entscheidungsmöglichkeiten.«
Für Larisa Stanescu ist die Entwicklung mehr Evolution als Revolution. Sie konstatiert ein Datenparadox, indem einerseits riesige Datenmengen zur Verfügung stehen und andererseits Unternehmen immer schneller Entscheidungen treffen müssen. So wurde in den letzten Jahren massenhaft Daten gesammelt, darunter strukturierte, unstrukturierte, sowie mehr oder weniger verlässliche Daten, die mitunter verstreut in unterschiedlichen Systemen vorliegen. Stanescu ist überzeugt, dass KI hier helfen kann, »aus dieser Datenflut relevante Insights zu generieren«. »Allerdings«, schränkt sie ein, »darf die Technologie nicht Selbstzweck sein – entscheidend ist die vorherige Klarheit über Ziele, KPIs und Entscheidungsprozesse.« Bei WienIT habe man schon Use Cases umgesetzt, wie Sentiment-Analysen oder Vorhersagen, die den Mehrwert zeigen. Es wurden auch bei gängigen Tools wie Power BI in den Dashboards die Möglichkeiten eingebunden, mit generativer KI, Insights zu generieren. Besonders erwähnenswert für Stanescu ist der Ansatz »Chat with your Database«, der Fachabteilungen via Chat mit der Datenbank schnellen Zugang zu relevanten Daten ermögliche, »ohne die BI-Abteilungen zu überlasten, die ja die Ressourcen nicht haben«.
Senior Consultant AI bei
Tietoevry Austria
© timeline/Rudi Handl
Michael Kommenda betont die hohe Leistungsfähigkeit der KI, die zuvor schwer zugängliche Datenformate – Text, Bild, Video – jetzt für BI nutzbar machen könne, um sie systematisch zu verarbeiten. Auch die Möglichkeit, dass Anwender eigenständig erste Prototypen entwickeln können, sei ein großer Benefit. Wenn der Mehrwert dieser Prototypen klar ersichtlich sei, könne die BI-Abteilung den Use Case anschließend professionell umsetzen. Dabei sei jedoch die Governance entscheidend. »Nur durch klare Regeln und eine gemeinsame Nutzung lassen sich die Potenziale nachhaltig ausschöpfen. Eine Analyse, die ich für mich persönlich durchführe, mag kurzfristig hilfreich sein. Der eigentliche Nutzen entsteht jedoch erst dann, wenn Ergebnisse in der Organisation geteilt und verankert werden. Denn nur so lassen sich Produktivitätsgewinne nicht individuell, sondern kollektiv realisieren«, ist Kommenda überzeugt.
Ein zentrales Element seien dabei bereitgestellte Dashboards. »Ziel ist es, Informationen so aufzubereiten, dass Auswertungen auf Knopfdruck verfügbar sind. Im Idealfall wird der Anwender proaktiv auf relevante Kennzahlen hingewiesen – etwa wenn eine Marge kritisch niedrig ist –, anstatt erst selbst eine Anfrage formulieren zu müssen. Auf diese Weise wird der Analyseprozess nicht nur effizienter, sondern auch konsistenter und transparenter gestaltet.«
Technical Sales Leader
bei BM Österreich
© timeline/Rudi Handl
Da BI wie auch KI auf riesigen Mengen an Daten basiert, sei die Datenqualität von höchster Bedeutung, betont Hille Vogel: »Ohne saubere Daten keine verlässlichen Ergebnisse – das Prinzip ›Garbage in, Garbage out‹ gilt nach wie vor.« Deshalb seien Data-Quality-Management und klare Regularien direkt in BI-Lösungen zu integrieren. Nur so ließen sich valide und langfristig nutzbare Ergebnisse sicherstellen, sowohl für den täglichen Betrieb als auch für KI-basierte Analysen. Als Teil der ProAlpha-Unternehmensgruppe besitze man eine über dreißigjährige Erfahrung im ERP-Bereich und der Prozesse der Kunden, die mehrheitlich dem Mittelstand zuzurechnen sind. Die KI setze auf historischen Daten auf und liefere konkrete Prognosen und Handlungsanweisungen. Vogel: »Es ist uns wichtig, dass wir damit konkrete Use Cases adressieren und gleichzeitig die KI-basierten Handlungsempfehlungen monetarisieren können. Daher sind vorpaketierte und sofort einsatzfähige KI-Lösungen wichtig, die konkrete Fragen beantworten und direkten Mehrwert schaffen – etwa zur optimalen Lagerbestückung oder Wiederbeschaffungszeit. Der Kunde versteht so, was er einspart, wenn er etwa seine Wiederbeschaffungszeit anpasst.«
Entscheidend sei, betont die Nemo-Vertriebsleiterin, dass die Ergebnisse direkt in ERP- oder CRM-Systeme integriert werden. »So arbeiten Anwender dort weiter, wo sie ohnehin tagtäglich aktiv sind, und verstehen so den unmittelbaren wirtschaftlichen Nutzen.«
Global AI-Lead bei
COSMO CONSULT
© timeline/Rudi Handl
Man arbeite zudem gezielt mit realen, unternehmenseigenen ERP- oder CRM-Daten und keinen synthetischen Datenmodellen, um Halluzinationen oder verfälschte Ergebnisse zu vermeiden.
»Um langfristig hochwertige Datenbestände zu schaffen, die für BI- und KI-Anwendungen nutzbar sind, ist eine Datenstrategie und eine dazu passende Governance unabdingbar– insbesondere bei Konzernen mit Tochterunternehmen unterschiedlichen Reifegrads«, wirft Stanescu ein: »Dazu gehört ein Assessment des aktuellen Stands, die Definition relevanter Daten und die Vereinheitlichung von Rollen und Prozessen.«
Da produzierende Unternehmen sehr unterschiedlich seien – eines produziere etwa Stahlträger, das andere Medikamente – sei es wichtig Domänenwissen in die KI-Anwendungen einzubinden ergänzt Nikolaus Marek. »Jedes Unternehmen hat spezifische Begrifflichkeiten und Prozesse. Deshalb braucht es ein Business-Glossar – das schafft einheitliche Begrifflichkeiten im Unternehmen und stellt sicher, dass identische Werte auch identisch interpretiert werden. Nur so können auf dieser Grundlage konsistente und fundierte Entscheidungen getroffen werden.« Bei der IBM-Lösung watsonx BI werde dieser Bedarf durch einen Governed Semantic Layer adressiert, der die Basis für einheitliche Dateninterpretationen bildet, so Marek.
Unrealistische Erwartungen
So nützlich der Einsatz von KI im BI-Bereich auch sein kann, so fatal sind überzogene und unrealistische Erwartungen, warnt Alfred Grünert. Viele seiner internen und externen Kunden im Bereich Business Intelligence erwarteten beim Aufkommen von generativer KI »eine Art Wundermaschine, die auch schlechte Daten automatisch in präzise Ergebnisse – etwa ganz konkrete Vorhersagen – verwandelt«. Eine Erwartung, die sich klarerweise nicht erfüllt habe. Denn: »KI kann zwar Prozesse verbessern, aber nicht jede Lücke in der Datenqualität schließen.«
Vice President Sales bei
Nemo
© timeline/Rudi Handl
Zudem sei es wichtig in einem ersten Schritt zwischen den Varianten künstlicher Intelligenz zu unterscheiden, so Grünert: »Während generative KI vor allem im semantischen und prozessualen Bereich unterstützt, liegen die analytischen Aufgaben eher in der klassischen KI.«
Zur Datenqualität merkt Grünert an, dass diese nicht in einem BI- oder Data-Warehouse-System entstehe, sondern direkt in den operativen Prozessen. »Wenn dort unsauber gearbeitet wird, helfen auch spätere Bereinigungen nur bedingt. Natürlich kann man Mappings oder Cleansing-Mechanismen nutzen, doch entscheidend ist, die Qualität im Prozess sicherzustellen. Wichtig ist, zu verstehen, dass BI nicht für die Beseitigung grundlegender Datenprobleme zuständig ist, sondern auf sauberen Prozessdaten aufbauen kann«, so Grünert.
CEO und Gründer von
ByteSource
© timeline/Rudi Handl
Alexander Penev pflichtet Alfred Grünert bei, dass »KI nicht gleich KI ist«. Machine Learning sei etwa seit vielen Jahren in der BI etabliert. »Anwendungen wie Predictive Analytics, Zeitreihenanalysen und Klassifikationsverfahren gehören zum Standardrepertoire nahezu jeder BI-Software«, sagt Penev. »Die aktuellen Innovationen jedoch stammen vor allem aus dem Bereich der Generativen KI mit täglich neuen Use Cases. Sowohl positive als auch kritische«, wie Penev hinzufügt. Insbesondere im Bereich Effizienzsteigerung erzielt die generative KI beeindruckende Ergebnisse. Da die Entwicklungen im KI-Bereich so rasant erfolgen, empfiehlt Penev »stets auf die leistungsfähigsten Technologien zu setzen, um den größtmöglichen Mehrwert für die Kunden zu schaffen, auch wenn diese kurzfristig teurer sein können«. Aus Kundensicht zählt vor allem der Nutzen einer Lösung. Moderne Modelle ermöglichen tiefgreifende Analysen, etwa von Margen, Kundenabwanderungen oder Forecasts, die zuvor nur eingeschränkt möglich waren. »Die Einsatzmöglichkeiten sind nahezu unbegrenzt«, schwärmt Penev, sie reichen »von konversationellen Schnittstellen zu Datenbanken über interaktive Abfragen in Wissenssystemen bis hin zur Analyse komplexer Dokumente und innovativen Reporting-Ansätzen. Generative KI eröffnet ein breites Spektrum an Chancen, das sich kontinuierlich erweitert.«
Bezüglich Datenqualität ergänzt Penev, dass es stark von der Perspektive abhänge. »Für IT-Spezialisten mögen viele IoT-Daten bedeutungslos erscheinen, während sie für Maschinenbauer entscheidend sind.« Zudem erfassen Abteilungen Daten in Silos und bewerteten deren Relevanz unterschiedlich. Werde der Wert der Daten nicht verstanden, so Penev, fehle die Motivation, in ihre Qualität zu investieren. Hier biete KI große Chancen. »Wenn Experten ihr Wissen über KI in Form von Logik oder ›Knowledge Mapping‹ in BI-Systeme einfließen lassen, können ganze Organisationen oder sogar Communities von individuellem Expertenwissen profitieren«, so Penev.
Vertrauen und Nachvollziehbarkeit
Um die Mitarbeiter und Mitarbeiterinnen eines Unternehmens für die neuen Technologien begeistern zu können, seien vertrauensbildende Maßnahmen, Nachvollziehbarkeit der Entscheidungen und klar ersichtliche Erfolge bei den Umsetzungen die besten Methoden – darin herrscht Einigkeit bei den Panelisten. Nikolaus Marek betrachtet die KI dabei als Partner, der beratend unterstützt. Vollständige Transparenz über die Schritte, die ein System durchführe, sei dabei ein Muss. Diese Partnerschaft zwischen Mensch und KI werde zudem die Rollen in Unternehmen verändern, ist Marek überzeugt.
Larisa Stansecu setzt bei WienIT in Sachen Vertrauen neben den technologischen Komponenten auf ein begleitendes Change-Management und eine gute, niedrigschwellige Feedback-Kultur.
Aflfred Grünert betont Hausverstand, Erfahrung und Technologie, und empfiehlt bei unkritischen und kritischen Use Cases eben unterschiedliche Maßstäbe anzulegen.Außerdem müssten KI-Anwendungen einen klaren Geschäfts-Use-Case adressieren. Grünert: »Wenn eine Anwendung wirklich nützlich ist, werden die Mitarbeitenden es von selbst einsetzen – ohne dass man sie erst mühsam überzeugen muss.«
Michael Kommenda weist darauf hin, dass sich der operative Einsatz von KI deutlich von der bloßen Implementierung eines Use Cases unterscheidet, indem man das System über Jahre hinweg überwachen und weiterentwickeln muss. Nur wenn diese Kontrollmechanismen integriert seien, so Kommenda, könne man Modelle zuverlässig austauschen, vergleichen und ihre Vor- und Nachteile systematisch erfassen. So bleibe die Lösung langfristig stabil und vertrauenswürdig.
Außerdem gelte: »Je freier die Aufgabenstellung formuliert ist, desto stärker braucht es den Human-in-the-Loop. Und umgekehrt: je einfacher und regelbasierter der Anwendungsfall, desto mehr kann automatisiert werden.«
»Bei kritischen Ergebnissen ist menschliche Kontrolle unerlässlich«, pflichtet Alexander Penev bei. Darüber hinaus sei Transparenz entscheidend: So sollen Chatbots Quellenangaben als Fußnoten mitliefern, damit Mitarbeiter sofort prüfen können, ob eine Antwort korrekt ist. Wichtig sei auch, so Penev, dass Mitarbeitende verstehen müssen, »dass KI nicht gleichzusetzen ist mit reiner Automatisierung – die Ergebnisse sind probabilistisch und nicht immer deterministisch«.
Angesprochen auf die »Human-in-theloop«-Problemtaik stimmt Hille Vogel zu, dass die Bedeutung des Menschen stark von der Zielsetzung des Systems abhängt. Bei standardisierten, repetitiven Aufgaben ließen sich viele Schritte automatisieren, bei komplexen und kostenintensiven Szenarien brauche es jedoch eine Interaktion zwischen Mensch und Maschine. Vogel: »Die Verantwortung für die endgültige Entscheidung verbleibt in menschlicher Hand. Das gilt besonders bei kritischen Anwendungen. Die KI ist ein starkes Unterstützungssystem, aber kein Ersatz für menschliche Steuerung.« Das sehen auch die andern Diskutanten ähnlich.
Auch Complance könne hinsichtlich Transparenz und Nachvollziehbarkeit Vertrauen schaffen, so Vogel. Das sieht auch Nikoalaus Marek so: »Für Investoren bedeutet Compliance Investitionssicherheit, weil sie auf klaren Regeln basiert. Eine zertifizierte Lösung kann in Europa nicht nur bestehen, sondern auch verkauft werden. Damit wird Compliance vom Kostenfaktor zum echten Benefit.«
Zwar werde aufgrund des hohen Aufwands Compliance am Beginn des Weges oft als Hürde betrachtet, räumt Penev ein, aber langfristig schaffe sie doch ein stabiles Fundament an Governance. Das sieht Kommenda ähnlich und sieht Compliance »vergleichbar mit unseren Grundregeln, die wir uns als Gesellschaft geben – ähnlich wie Prüfzeichen für Produkte«.
Trotzdem reichen selbst zigtausende Zertifizierungen nicht, fügt Panev hinzu: »Am Ende müssen unsere Lösungen auch einen echten Mehrwert bieten und besser funktionieren als die der Konkurrenz.
Wirtschaftlichkeit
Abschließend gingen die Diskutanten der Frage nach, wie man den Erfolg von KI- und BI-Initiativen misst und worin er sich konkret zeigt. Für Nikolaus Marek sind Effizienzgewinne und strategische Neuausrichtung die Eckpfeiler zur Bewertung des Erfolgs. »Effizienzsteigerung erreichen wir etwa durch die Automatisierung von Abfragen oder die Verkürzung der time-to-insight. Self-Service-BI ermöglicht es zudem, dass Fachabteilungen schneller auf relevante Erkenntnisse zugreifen können.« Bezüglich strategische Ausrichtung beschleunigen »datenbasierte Entscheidungen nicht nur Prozesse, sondern verändern auch die Art, wie Organisationen arbeiten«.
Larisa Stanescu weist darauf hin, dass die exakte Berechnung des Return-on-Investment (ROI) nicht einfach sei, und viele Unternehmen hier erst am Anfang stünden. Für sie ist der menschliche Faktor bedeutend. Sie hofft, »dass sich die KI zu einem proaktiven, möglichst autonomen digitalen Mitarbeitenden entwickelt, der Prozesse, Entscheidungsfindungen und die tägliche Arbeit der Mitarbeitenden unterstützt«. Um Effizienz zu messen, müsse man Prozesse detailliert protokollieren, Ausgangspunkte definieren und mit Methoden wie Zero-Based-Budgeting eine klare Vergleichsbasis schaffen, ruft Alfred Grünert zur Messung auf und fügt hinzu: »Der eigentliche Druck wird erst dann entstehen, wenn Unternehmen beginnen, KI konsequent umzusetzen und Prozesse grundlegend neu zu gestalten und Menschen anders oder effizienter einzusetzen. Bis dahin bleibt vieles in der Wirtschaftlichkeit eine teilweise subjektivierte Einzelfallbetrachtung.«
»Zur Messung eignen sich pragmatische Proof-of-Concepts«,ergänzt Alexander Panev: »Wenn ich sehe, dass ein Prozess von zwei Stunden auf 13 Minuten reduziert werden kann, habe ich bereits eine klare Aussage über den ROI – unabhängig davon, ob sich dieser in Monaten oder Jahren auszahlt.«
Für Hille Vogel ist die Wirtschaftlichkeit eng mit Kundennutzen und Wertschöpfung verbunden. Sie sagt: »Für uns spielt Wertschöpfung eine zentrale Rolle. Wir führen keine rein technologische Diskussion, sondern fokussieren uns auf reale Use Cases, die konkrete Kundenprobleme lösen. Diese Lösungen lassen sich klar monetarisieren und liefern einen direkten ROI.«
Mit all dem Gesagten ist auch Michael Kommenda einverstanden und ergänzt es um die Bedeutung der Prozessharmonisierung, insbesondere bei internationalen Konzernen. »Wenn Standorte A und B dieselben Datenstandards und Entscheidungsgrundlagen nutzen, entstehen Transparenz und Vergleichbarkeit. Entscheidungen basieren dann nicht mehr auf Bauchgefühl, sondern auf konsistenten Informationen.«
Dass KI den Menschen ersetzen wird, glaubt keiner der Panelisten. »Seit Jahrzehnten hören wir, dass Automatisierung Arbeitsplätze vernichten wird«, sagt Alexander Panev. »Tatsächlich ist das Gegenteil eingetreten: Es gibt heute mehr IT-Jobs als je zuvor. Die Arbeit verändert sich, aber sie verschwindet nicht.«

Be the first to comment