2024: Das Jahr der „Data Opportunity“ 

Nur wenn die Datenbasis stimmt, kann eine KI vernünftige Ergebnisse liefern. [...]

Guro Bergan, General Manager EMEA bei Fivetran. (c) Fivetran
Guro Bergan, General Manager EMEA bei Fivetran. (c) Fivetran

Willkommen im Zeitalter der KI! Aber eigentlich ist das Thema gar nicht so neu: Seit Jahren schon arbeiten diverse KI-basierte-Lösungen im Hintergrund und erleichtern uns das Leben: In Unternehmen, aber auch im privaten Bereich. Mit ChatGPT & Co hat das Thema ein neues Level erreicht: Es ist omnipräsent. 87 Prozent der Unternehmen glauben, dass diejenigen, die KI nicht nutzen, auf der Strecke bleiben werden. Und doch kämpft die Mehrheit immer noch mit weit verbreiteten Problemen der Datenqualität, die den umfänglichen Einsatz behindern. Neun von zehn Unternehmen haben noch immer nicht die Art von Automatisierungsfähigkeiten, die es ermöglichen würden, saubere und zeitnahe Daten in wichtige ML-Programme einzuspeisen. Dies waren die wichtigsten Ergebnisse einer unserer Studien im Jahr 2023

Was generative KI ist – und was sie nicht ist

Insbesondere Unternehmen müssen sich der Grenzen generativer KI und unserer menschlichen Denkweise bewusst sein: Auch wenn wir Dinge als menschenähnliche Intelligenz wahrnehmen, ist diese eben oft nicht wirklich intelligent. KI zeichnet sich durch ultraschnelle Verarbeitungsleistung und ein tiefgreifendes Verständnis von Zusammenhängen aus. Ohne den menschlichen Kontext können sich Large Language Modelle nur auf Daten stützen. Die erste und entscheidende Frage, die sich Verantwortliche daher stellen müssen, ist also, ob sie den Daten selbst vertrauen.

Daten sind das Herzstück des KI-Erfolgs

KI-Ergebnisse werden immer nur so vertrauenswürdig sein wie die Daten, mit denen sie gefüttert werden. Fehlerhafte Datenprozesse treten bei der Nutzung von generativen KI-Lösungen deutlicher zu Tage als in den meisten anderen Bereichen. Doch während Menschen Sinn und Unsinn unterscheiden können, können Maschinen dies nicht. Und das kann zu falschen Entscheidungen im Business führen. Untersuchungen von Fivetran zeigen, dass technische Entscheider oft kein Vertrauen in KI haben und sogar Umsatzeinbußen durch unzureichend funktionierende KI-Modelle auf der Grundlage schlechter Daten hinnehmen müssen. Fragt man jedoch nach den zugrundeliegenden Datenprozessen, so werden am häufigsten Probleme genannt, die wirklich grundlegende Aspekte im Unternehmen betreffen: Hochqualifizierte Spezialisten müssen sich mit unzugänglichen Daten sowie mit manuellen und sich wiederholenden Aufgaben beschäftigen. 

Um Daten erfolgreich in einem Kontext generativer KI zu nutzen, müssen Unternehmen daher wichtige Daten zugänglich machen und gleichzeitig einen starken Governance-Rahmen dafür schaffen, welche Daten in die Analyse einbezogen werden können, wie sie verarbeitet werden können und wer darauf zugreifen kann. Der mangelnde Zugang zu aktuellen und relevanten Daten ist eines der größten Wachstumshemmnisse für Datenteams. Data Scientists, Engineers und Analysts verschwenden jeden Tag enorme Ressourcen mit dem Versuch, die benötigten Daten manuell ausfindig zu machen. Und oft sind die Daten, wenn sie dann gefunden sind, schon veraltet. Data Analysts schätzen, dass sie ein Drittel jedes Arbeitstages mit ineffektiven Datenprozessen verlieren. Wenn Top-Talente Mühe haben, Daten zum Laufen zu bringen, welche Chance haben dann große Sprachmodelle?

Automatisierung von Datenbewegungen ist der Schlüssel zur Lösung des Problems der Datenzuverlässigkeit. Sie kann einen Echtzeitzugriff auf alle Daten eines Unternehmens ermöglichen, unabhängig davon, welche Abteilung sie erstellt hat oder ob sie in Softwareanwendungen oder lokalen Datenbanken gespeichert sind. Auf diese Weise können Verantwortliche sicherstellen, dass alle Mitarbeitenden und KI-Modelle nur die aktuellsten und korrekten Daten verwenden und folglich alle Ergebnisse auch vertrauenswürdig sind. Zudem können Unternehmen durch Automatisierung die Regeln für die Datennutzung vordefinieren.

Klare Regeln für Datenmanagement

Genauso wie man nicht jedem Besucher den Code zum Safe geben würde, so müssen Unternehmen auch den Zugang zu ihren Daten für die KI beschränken. Sie sind dafür verantwortlich, sensible Daten wie personenbezogene Daten (PII) zu schützen und diese zu „maskieren“, wenn Datensätze für Analysen verwendet werden. Sie müssen auch die Herkunft der Daten nachvollziehen können und sehen, welches System wann und wie auf welche Daten zugegriffen hat. Dieses Maß an Transparenz und Kontrolle ist von entscheidender Bedeutung, wenn Unternehmen Data-Governance-Richtlinien und -Prozesse einführen. Und diese werden von den Aufsichtsbehörden erwartet und von den Kunden gefordert. Glücklicherweise bietet die Technologie bereits eine Antwort auf diese modernen Probleme. Durch die gemeinsame Nutzung von Metadaten und die Integration mit Automatisierungstools müssen Unternehmen nicht bei Null anfangen, um die Vorteile der KI-Revolution zu nutzen.

Gute Vorbereitung und die Parameter für den erfolgreichen Einsatz

Generative KI befindet sich auf einem kometenhaften Aufstieg und jedes Unternehmen möchte ein möglichst großes Stück vom Kuchen abhaben. Doch mit der rasanten Verbreitung wächst auch der Druck auf die Unternehmen, neue Tools reaktionsschnell und so einzusetzen, dass die Mitarbeitenden ihre Arbeit effektiver erledigen können. 

Auf der technologischen Seite benötigen Unternehmen eine Dateninfrastruktur in Form der folgenden Tool-Suite:

  • Ein Ziel, das große Datenmengen aufnehmen kann, z.B. ein Data Lake oder eine ähnliche Cloud-Datenplattform
  • Ein Tool zum Verschieben von Daten von ihren Quellen zum Ziel, das im Idealfall nur minimalen menschlichen Eingriff und Entwicklungsaufwand erfordert
  • Ein Tool zur Umwandlung von Daten in nutzbare Modelle unter Verwendung von Zusammenarbeit, Versionskontrolle und anderen bewährten Methoden der Technik
  • Eine Business-Intelligence-Plattform zur Erstellung von Dashboards und zur Unterstützung der Entscheidungen von Mitarbeitenden in Ihrem Unternehmen
  • Ein Datenaktivierungstool, das bei der Operationalisierung und Produktion von Datenmodellen hilft, indem es sie zurück in Betriebs- und Produktionssysteme leitet

Auf der organisatorischen Seite benötigen sie:

  • Eine robuste Organisation mit Data Analysts, die darauf spezialisiert sind, die Bedürfnisse bestimmter Abteilungen zu verstehen
  • Einen ausgereiften, wiederholbaren Prozess zur Erstellung von Datenbeständen
  • Weit verbreitete Datenkompetenz und die routinemäßige Nutzung von Daten zur Unterstützung von Entscheidungen 
  • Data Engineers, die über die Kompetenz verfügen, Modelle wirklich in den Alltag zu integrieren und so maschinelles Lernen im Unternehmen zu unterstützen

Sobald diese Kriterien erfüllt sind, können Unternehmen ihre Data Opportunity voll nutzen. Erst so wird das volle Potenzial von maschinellem Lernen, künstlicher Intelligenz und Big Data ausgeschöpft. 

*Guro Bergan, VP/General Manager EMEA bei Fivetran, hat ein vieljährige Erfahrung in leitenden Positionen bei renommierten IT-Unternehmen. Als General Manager EMEA bei Fivetran verantwortet sie das gesamte Business des US-Spezialisten für Datenintegration in Europa, dem mittleren Osten und Afrika. Sie gilt als Expertin auf dem Gebiet. Sie engagiert sich zudem für „Women in Tech“.


Mehr Artikel

Fast jedes zweite Unternehmen sieht Investitionen in die Private Cloud vor (c) Unsplash
News

Das Jahr der Datacenter

Der Blick auf das IT-Trendportfolio 2024 zeigt eine hohe Marktdurchdringung in Bezug auf vorhandene Netzwerkinfrastruktur und Datacenter-Hardware, so eine aktuelle Studie von techconsult, die sich ITWelt.at genauer angesehen hat. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*