Die unterschätzte Datenbasis: Drei Gründe, warum KI-Projekte oft scheitern

Viele KI-Projekte scheitern schon in der Pilotphase. Aber oft liegt das nicht an der Technologie selbst, sondern an der unterschätzten Basis: den Daten. Jörg Hesske, Regional Vice President bei Denodo, zeigt drei zentrale Stolpersteine auf und erklärt, wie Unternehmen mit einem modernen Datenmanagement den entscheidenden Durchbruch schaffen. [...]

Laut Schätzungen von Gartner scheitern 30 Prozent aller KI- und Generative-AI-Projekte noch in der Pilotphase. Dabei stoßen sie vor allem beim Versuch, ihre Use Cases über das gesamte Unternehmen zu skalieren, an ihre Grenzen. (c) stock.adobe.com/Papisut

Viele Unternehmen befinden sich mit ihren KI-Projekten noch immer in einer frühen Phase, treten scheinbar permanent auf der Stelle und erzielen so gut wie keinen echten Mehrwert. Diese Situation betrifft jedes dritte Unternehmen weltweit. Denn laut Schätzungen von Gartner scheitern 30 Prozent aller KI- und Generative-AI-Projekte noch in der Pilotphase. Dabei stoßen sie vor allem beim Versuch, ihre Use Cases über das gesamte Unternehmen zu skalieren, an ihre Grenzen.

Das kann verschiedene Gründe haben – zum Beispiel fehlendes Fachpersonal, welches sich mit KI-Technologien auskennt. In den meisten Fällen ist jedoch eine mangelhafte Datengrundlage der Übeltäter. Daten sind laut McKinsey für die Mehrheit der Unternehmen (72 Prozent) sogar die Hauptherausforderung bei dem unternehmensweiten Einsatz von KI.

Die zentrale Frage lautet daher: Hemmen Daten auch den Fortschritt des eigenen KI-Projekts? Wie kommt es dazu und welche Maßnahmen können dagegen helfen?

1. Infrastrukturen sind zu komplex und Wissen zu verteilt

Mit jeder neuen Technologie, Systeminstanz und Anwendung wird die gesamte IT-Landschaft komplexer. Überall entstehen Daten in unterschiedlichen Formaten, die verarbeitet und gespeichert werden müssen. Dadurch verteilt sich das gesamte Wissen – all die geschäftsrelevanten Informationen – über sämtliche Umgebungen wie Cloud und On-Prem hinweg. So entstehen voneinander getrennte Informationssilos, die für KI-Modelle nur schwer zugänglich sind.

2. Daten sind veraltet und unbrauchbar

Viele KI-Modelle werden einmalig mit einem bestimmten Datenkontingent verknüpft. Danach erfolgt häufig keine kontinuierliche Datenzufuhr. Aus Sicherheitsgründen wird zudem oft auf eine Anbindung an das öffentliche Internet verzichtet. Das bedeutet allerdings, dass ein Modell nur auf die anfänglich bereitgestellte Datengrundlage zugreifen kann. Dieser mangelt es an Aktualität; die neuesten Kunden-, Produkt- und Betriebsdaten fehlen. Alle Anfragen, die Informationen benötigen, die darüber hinausgehen, bergen das Risiko unpräziser, veralteter sowie lücken- und fehlerhafter Antworten.

3. Ein Großteil des Budgets fließt in kostspieliges Nachtrainieren

Ist das Problem der veralteten Daten einmal erkannt, fällt die Wahl häufig auf regelmäßiges Nachtrainieren um die Informationsgrundlage aktuell zu halten. Doch schon nach wenigen Durchläufen zeigt sich, dass dieser Prozess extrem aufwendig ist – sowohl personell, zeitlich als auch finanziell.

Damit KI-Anwendung genaue, hochwertige und geschäftsrelevante Antworten geben können, müssen folgende Voraussetzungen gegeben sein:

  • Daten aus allen relevanten Quellen sind zentral und in Echtzeit zugänglich, um Vollständigkeit und Qualität zu gewährleisten.
  • Der Zugriff entspricht höchsten Sicherheits- und Governance-Anforderungen.
  • Die Datengrundlage bildet das tagesaktuelle Unternehmensgeschehen ab.
     

Zentrales Datenmanagement

Mithilfe einer Plattform für zentrales Datenmanagement ist all das möglich. Hierfür kommt Datenvirtualisierung zum Einsatz. Anders als bei der klassischen Datenintegration werden die Zugänge zu zahlreichen Quellen entkoppelt, abstrahiert und zentral zusammengeführt. Konsumenten, darunter auch KI-Modelle, greifen über einen virtuellen Layer in Echtzeit auf die Unternehmensdaten zu – ganz unabhängig davon, wo sie liegen. Die Daten müssen nicht in aufwendigen Prozessen dupliziert, verändert oder in ein weiteres Repository bewegt werden. Innovative Funktionen wie zum Beispiel Deep Research helfen zusätzlich dabei, komplexe Zusammenhänge zu analysieren, Daten zu verknüpfen und Ergebnisse verständlich zu erklären.

In Kombination mit einer Retrieval-Augmented-Generation-Architektur lässt sich zudem die Aktualität der Daten sicherstellen. Dabei handelt es sich um eine Methode, bei der eine KI-Anwendung auf zusätzliche Datenquellen wie beispielsweise Datenbanken zurückgreift, um weiteres notwendiges Wissen einzubinden. Die Aktualität, Genauigkeit, Relevanz und Transparenz der Antworten steigen, das Risiko fehlerhafter Inhalte sinkt und kostspieliges Nachtrainieren ist nicht mehr erforderlich, da Informationen kontinuierlich und automatisch ins Modell fließen.

Zentrales Datenmanagement hilft somit, KI-Projekte aus der Pilotphase zu befreien und ihr volles Potenzial unternehmensweit zu entfalten.

* Jörg Hesske ist Regional Vice President bei Denodo.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*