„Nur durch klare Regeln und eine gemeinsame Nutzung lassen sich die Potenziale nachhaltig ausschöpfen“

Der Einsatz von Künstlicher Intelligenz bietet im Bereich der Business Intelligence enorme Potenziale. Im Rahmen des Roundtable "BI: Mit KI die eigenen Daten optimal nutzen" sprach die ITWelt.at mit Michael Kommenda, Senior Consultant AI bei Tietoevry Austria, über Datenqualität, Transparenz, Compliance und Vertrauen im KI-unterstützten BI-Bereich. [...]

Michael Kommenda, Senior Consultant AI, Tietoevry Austria (c) timeline / Rudi Handl
Michael Kommenda, Senior Consultant AI, Tietoevry Austria (c) timeline / Rudi Handl

Wie kann eine gute Strategie helfen, Enttäuschungen beim Einsatz von KI zu vermeiden?

Zwei Aspekte möchte ich hervorheben, die für den erfolgreichen Einsatz von Künstlicher Intelligenz (KI) im Business-Intelligence-Kontext von zentraler Bedeutung sind.

Erstens erweitert KI die Fähigkeit, zuvor schwer zugängliche Datenformate – Text, Bild, Video – für BI nutzbar zu machen und systematisch zu verarbeiten. Das ist ein sehr großer Schritt. Voraussetzung dafür ist jedoch eine sorgfältige Datenkontrolle, andernfalls können sich fehlerhafte Daten durch gesamte Prozessketten fortpflanzen und zu gravierenden Fehlentscheidungen führen.

Zweitens ermöglicht die Integration von KI Anwendern, erste Schritte selbstständig zu gehen: sie können eigenständig erste Prototypen entwickeln. Ist der Mehrwert klar ersichtlich, kann die BI-Abteilung den Use Case anschließend professionell umsetzen.

Entscheidend ist jedoch die Governance: Welche Modelle nutze ich? Wie verankere ich Use Cases in der Organisation? Nur durch klare Regeln und eine gemeinsame Nutzung lassen sich die Potenziale nachhaltig ausschöpfen. Eine Analyse, die ich für mich persönlich durchführe, mag kurzfristig hilfreich sein. Der eigentliche Nutzen entsteht jedoch erst dann, wenn Ergebnisse in der Organisation geteilt und verankert werden. Nur so lassen sich Produktivitätsgewinne nicht individuell, sondern kollektiv realisieren.

Ein zentrales Element dabei sind Dashboards und deren Bereitstellung. Ziel ist es, Informationen so aufzubereiten, dass Auswertungen auf Knopfdruck verfügbar sind. Im Idealfall wird der Anwender proaktiv auf relevante Kennzahlen hingewiesen – etwa wenn eine Marge kritisch niedrig ist –, anstatt erst selbst eine Anfrage formulieren zu müssen. Auf diese Weise wird der Analyseprozess nicht nur effizienter, sondern auch konsistenter und transparenter gestaltet.

Wie geht ihr in eurer Organisation mit der Sicherung von Datenqualität um?

Daten sind der entscheidende Differenzierungsfaktor im Zusammenspiel von KI und BI. Standardmodelle liefern nur dann echten Mehrwert, wenn sie mit unternehmenseigenen Daten gefüttert werden. Deshalb führen wir zunächst ein Data Assessment durch: Welche Daten liegen vor, wie werden sie erhoben, wie strukturiert und wer ist verantwortlich? Häufig zeigt sich dabei, dass vor einer konkreten BI- oder KI-Implementierung zunächst strukturierte Datenerfassung und -analyse etabliert werden muss.

Ein Beispiel: Wenn Produktionsdaten bereits fehlerhaft erfasst werden, darf man nicht erwarten, dass ein Data Warehouse diese Mängel behebt. Vielmehr müssen Kontrollmechanismen direkt bei der Erfassung greifen.

Je automatisierter alles abläuft, desto einfacher geht es. Man denke etwa an IoT-Lösungen im Kontext von Industrie 4.0. Allerdings fehlt oft die Semantik: Man weiß nicht, warum sich Werte plötzlich drastisch ändern, z.B. weil Systemumstellungen durchgeführt wurden und diese nicht digital erfasst sind.

Du hast das Thema „Vertrauen“ aus einer technischen und operativen Perspektive betrachtet. Welche Fehler sollten Unternehmen bei der Implementierung vermeiden?

Ein häufiger Fehler ist, KI nur als Ersatzlösung einzusetzen, obwohl es bessere deterministische Alternativen gibt. Beispiel: Blutwerte. Anstatt diese über KI zu interpretieren, wäre es oft einfacher, die Analysegeräte direkt an ein Data Warehouse anzubinden.

Ein weiterer Punkt: Der operative Einsatz von KI unterscheidet sich deutlich von der bloßen Implementierung eines Use Cases. Man muss das System über Jahre hinweg überwachen und weiterentwickeln. Dazu gehören Test-Cases, Monitoring und automatische Alarme. Wenn sich Prozesse, Datenströme oder Modellverhalten ändern, will ich sofort informiert werden und dies nicht erst Wochen oder sogar Monate später entdecken.

Nur wenn diese Kontrollmechanismen integriert sind, kann man Modelle zuverlässig austauschen, vergleichen und ihre Vor- und Nachteile systematisch erfassen. So bleibt die Lösung langfristig stabil und vertrauenswürdig.

Du hast in der Diskussion besonders die Themen Transparenz und Nachvollziehbarkeit hervorgehoben. Warum sind diese so wichtig?

Zwei Aspekte sind entscheidend: Erstens Transparenz – ich möchte verstehen, warum eine Entscheidung getroffen wurde. Zweitens Nachvollziehbarkeit – ich muss auch im Nachhinein sehen können, welche Daten und Prozesse zu einem Ergebnis geführt haben. Das muss protokolliert und einsichtbar sein, auch für den Endanwender oder für den Entwickler des Systems.

Gerade bei Conversational AI-Systemen gilt: Je freier die Aufgabenstellung formuliert ist, desto stärker braucht es den Human-in-the-Loop. Umgekehrt, je einfacher und regelbasierter der Anwendungsfall, desto mehr kann automatisiert werden.

Ein Beispiel: Bei der automatisierten Belegerfassung reichen klare Regeln, ergänzt durch Protokollierung der Verarbeitungsschritte. Ein menschliches Eingreifen ist nicht zwingend erforderlich. Bei komplexeren oder offenen Szenarien bleibt die menschliche Überprüfung jedoch unverzichtbar.

Welche Rolle spielen die Mitarbeiter und Fachabteilungen dabei? Welche Fähigkeiten brauchen sie?

Das Fundament ist das Verständnis der Daten. Jeder, der mit Self-Service BI oder KI arbeitet, muss wissen, wie Daten im jeweiligen Kontext einzuordnen sind. KI eröffnet hier Chancen: Data Owner oder Fachanwender können erste Analysen eigenständig durchführen und Prototypen entwickeln. Damit lässt sich schnell einschätzen, welchen Mehrwert eine Lösung liefert und welche Bausteine noch fehlen.

Soll eine Lösung jedoch im Unternehmen verankert werden, reicht der Prototyp nicht mehr. Dann braucht es eine professionelle Umsetzung – nicht nur technologisch, sondern auch organisatorisch. Es muss klar sein, wer Verantwortung trägt, wenn sich Daten oder Prozesse ändern. Müssen Arbeitsprozesse angepasst werden oder Dashboards? Wer wird eingebunden, wenn Fehler in Daten oder Prozessen entdeckt werden? Diese Fragen sind zentral und gehen über klassische BI- oder KI-Themen hinaus.

Damit Self-Service BI nachhaltig funktioniert, braucht es mehr Interaktion und Kommunikation zwischen den Abteilungen. Zusammenarbeit wird noch stärker zum Schlüssel.

Ändern sich die erforderlichen Skills durch KI?

Ja, die benötigten Fähigkeiten entwickeln sich kontinuierlich weiter. In der IT ist das nichts Neues: Vor Jahrzehnten programmierte man in Assembler, was äußerst mühsam war. Später kamen höhere Programmiersprachen und visuelle Oberflächen hinzu, die die Arbeit erleichterten. Ähnlich verhält es sich heute mit KI: Wir stehen an einem Punkt, an dem die Interaktion mit Computern erneut grundlegend anders wird.

Statt komplexe Eingaben zu machen, können wir inzwischen sprachlich kommunizieren oder Bilder zeigen, die das System interpretiert. Dieser Wandel verändert, wie Menschen mit Technologie umgehen. Er bedeutet jedoch nicht, dass bestimmte Rollen – etwa Junior-Entwickler – überflüssig werden. Vielmehr verschieben sich die Aufgaben. Neue Kompetenzen entstehen, die die Zusammenarbeit zwischen Business und IT bereichern.

Ist der regulatorische Aufwand gerechtfertigt oder überwiegt der Nutzen?

Ich sehe Compliance als gemeinsame Grundregeln, die wir uns als Gesellschaft geben – ähnlich wie Prüfzeichen für Produkte. Natürlich ist der Aufwand groß, vor allem am Anfang. Aber langfristig überwiegt der Nutzen: Der EU-AI-Act wird uns helfen, Systeme sicherer, transparenter und verlässlicher zu gestalten.

Wie messt ihr den ROI und welche Kennzahlen nutzt ihr?

Das Wichtigste sind klar definierte KPIs – was allerdings oft eine Herausforderung ist. Wie messe ich zum Beispiel, wie effizient ich Daten nutze? Dies ist eine sehr komplexe Thematik.

Trotzdem sehen wir konkrete Effekte: Produktivitätssteigerung und Effizienzgewinne. Ein Beispiel: Statt Zeitbuchungen oder Reisekostenabrechnungen manuell zu erledigen, lade ich Belege hoch, und die KI verarbeitet diese. Das spart mir persönlich mindestens eine halbe Stunde im Monat. Kleine Effekte summieren sich und führen zu spürbarer Entlastung.

Ein weiterer Aspekt ist die Mitarbeiterzufriedenheit. Wenn Routineaufgaben wegfallen, bleibt mehr Zeit für sinnstiftende Tätigkeiten.

Besonders wichtig ist außerdem die Prozessharmonisierung, insbesondere in internationalen Konzernen. Wenn Standorte A und B dieselben Datenstandards und Entscheidungsgrundlagen nutzen, entstehen Transparenz und Vergleichbarkeit. Entscheidungen basieren dann nicht mehr auf Bauchgefühl, sondern auf konsistenten Informationen – mit einem Mindeststandard an Qualität.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*