Michael Berthold, Gründer und CEO des Open-Source-Unternehmen KNIME, spezialisiert auf Datenanalyse und die sichere Nutzung von künstlicher Intelligenz (KI), zeigt drei Aspekte auf, die 2025 für Unternehmen beim Einsatz von KI besonders relevant sein werden. [...]
Generative AI bietet in vielen Arbeitsbereichen, und besonders bei der Verarbeitung von Daten, enorme Möglichkeiten, die Arbeit sowohl effizienter als auch kreativer zu gestalten. Die durch KI bei Routineaufgaben und repetitiven Prozessen, eingesparte Zeit kann auf komplexere und kreative Aufgaben verwendet werden. Allerdings ist es dabei wichtig, für jedes Unternehmen die richtige Balance zwischen einer sinnvollen Nutzung KI-gestützter Technologien und Einschränkungen zur Vermeidung von Risiken zu finden.
KI ja – aber verantwortungsvoll reguliert
2025 wird das Jahr sein, in dem Unternehmen sich darauf konzentrieren werden, den Einsatz von KI unter Kontrolle zu bekommen – Stichwort: KI-Governance.
Im vergangenen Jahr haben einige große Firmen kategorisch verboten, generative KI (GenAI) zu nutzen, da ihnen die Risiken zu unabsehbar waren.
Jetzt, da Unternehmen wissen, wie wertvoll es sein kann, künstliche Intelligenz und Machine Learning bei der täglichen Arbeit zu nutzen, liegt der Fokus darauf, den Einsatz der Technologie sinnvoll zu regulieren, statt ihn generell zu verbieten. Es zeigt sich also immer stärker, dass die Kontrolle von Kosten, die Qualität der genutzten Daten und der geregelte Zugriff entscheidend sind, um das Beste aus der Technologie herauszuholen.
Dabei geht es um den Datenschutz sowie auch die Modell-Governance. Die Einführung von GenAI-Tools erfordert strenge Governance-Vorgaben, um sicherzustellen, dass die Verwendung der Modelle ordnungsgemäß überwacht und überprüft werden kann. Ohne klare Richtlinien kann die Nutzung von KI-Tools dazu führen, dass interne Daten in der Cloud landen, dass falsche Resultate zu katastrophalen Entscheidungen führen, oder das schlicht die Kosten für die Nutzung explodieren. Zugriffskontrollen sollten regeln, dass nur autorisiertes Personal Zugang zu bestimmten Datensätzen hat, und dass dieser Zugang auf der passenden Ebene beschränken wird. Moderne Datenanalyse-Plattformen regeln zudem Zugriffserlaubnisse auf KI-Tools. Administratoren können vertrauenswürdige Proxy-Anbieter festlegen. So wird sichergestellt, dass nur geprüfte und zugelassene KI-Tools verwendet werden. Zudem können sie Anonymisierungs- und Validierungs-Workflows einrichten, die verhindern, dass personenbezogene Daten oder andere vertrauliche Informationen unbefugt an externe Server übermittelt werden.
KI kennt Wahrscheinlichkeiten – nicht die Wahrheit
Die Menschen werden auch immer wieder an die Konsequenzen erinnert, die sich ergeben, wenn KI nicht weiß, wovon sie spricht – oder wie Stefan Wrobel es ausdrückte: „KI macht das Wahrscheinliche, nicht das Wahre, aber das macht sie gut.“
Für einige Anwendungen ist das ausreichend, aber für viele ist es ein grundlegendes Problem. Wenn es zum Beispiel um eine vierteljährliche Steuererklärung oder kritische Prognosen geht, von denen der Erfolg unseres Unternehmens abhängt, sind die Risken hoch.
Die Frage, wie man KI zuverlässig macht, wird daher ein zentraler Schwerpunkt im Jahr 2025 sein.
Workflows können den wichtigen Validierungsaspekt unterstützen. Wenn beispielsweise ein KI-System eingesetzt wird, das Erkenntnisse direkt aus Daten ableitet, sollte nachvollziehbar sein, wie diese Erkenntnisse zustande gekommen sind, statt einem Black-Box-KI-System zu vertrauen, das anfällig für Halluzinationen ist. Mithilfe von Workflows kann der gesamten Argumentationsprozess der KI aufgezeigt werden man kann den Workflow zudem dazu nutzen, um zu erklären und zu validieren, wie es zu den jeweiligen Schlussfolgerungen gekommen ist.
KI ist nicht die beste Lösung für alles
Und schließlich wird 2025 das Jahr sein, in dem KI nicht mehr ganz so überbeansprucht wird. Wie es so schön heißt: „Für jemanden, der einen Hammer in der Hand hält, sieht alles wie ein Nagel aus.“ Aber viele dieser KI-Anwendungen lassen sich auch mit konventionellen Methoden abdecken und selbst dort, wo KI Sinn macht, lässt sich oft noch schwer der Mehrwert in Zahlen messen. Firmen werden aufpassen müssen, dass sie ihre Anstrengungen in diesen Bereichen nicht zu früh einstellen.
Nachdem wir die Grenzen und Kosten der KI mittlerweile besser verstehen, werden viele auch wieder stärker auf klassische Analyse- und Textanalysemethoden zurückgreifen, die preisgünstiger, leichter zu kontrollieren und zuverlässiger sind. Das wird, damit es nicht ganz so offensichtlich ist und weiterhin modern klingt, zunehmend unter dem neuen Begriff „Predictive AI“ zusammengefasst.
Die leistungsstärksten und innovativsten Ansätze werden diese klassischen Methoden mit neuen KI-Techniken kombinieren, um die Vorteile aller zur Verfügung stehenden Möglichkeiten optimal zu nutzen.
*Michael Berthold ist Gründer und CEO des Open-Source-Unternehmen KNIME.
Be the first to comment