Mit Künstlicher Intelligenz völlig neue Anwendungsfelder erschließen

Michael Kommenda ist Senior AI Consultant bei Tietoevry. Im Gespräch mit der ITWELT.at verrät der KI-Experte, was die Herausforderungen und Vorteile von KI im Unternehmenseinsatz sind und was beim Einsatz von KI-Lösungen im Unternehmensbereich zu beachten ist. [...]

Michael Kommende, Senior AI Consultant bei Tietoevry (c) timeline / Rudi Handl
Michael Kommende, Senior AI Consultant bei Tietoevry (c) timeline / Rudi Handl

Ist generative KI nur ein weiterer Schritt in der Automatisierung oder doch eine der industriellen Revolution vergleichbare Transformation? 

Was im Bereich GenAI in letzter Zeit ermöglicht wurde, ist das, was wir mit strukturierten Strategien – Daten, Data Warehouses –, schon seit zwanzig Jahren machen. Die Möglichkeit, die jetzt geschaffen wurde, ist unstrukturierte Daten effizient und vom Konzept her zu erfassen: Sprache, Bilder, Videos, diese Daten zu verstehen, zu kombinieren und daraus auch neue Inhalte zu generieren.

Das in Verbindung mit Daten bietet die Möglichkeit, ganz neue Anwendungsfelder zu erschließen. Hier kann man sehr wohl von einer kleinen Revolution sprechen, die stattgefunden hat. Und es ist in der breiten Masse angekommen: Privatpersonen nutzen diese Technologie täglich und verfolgen aufmerksam, was sich Neues tut.

Unternehmen sind teilweise etwas langsamer in der Adaption und in der Klärung der Fragen: Wie setze ich das nutzbringend ein? Welche Rahmenregeln muss ich setzen, damit alles sicher funktioniert? 

Wie können Unternehemn mit generativer KI produktiver werden? Was ist dabei zu beachten?

Unternehmen lernen, das strategische Potenzial zu nutzen. Das Problem ist nicht das Scheitern, sondern was ich aus dem Scheitern lerne, wie ich besser werde und was ich dadurch gelernt habe; dann auch den Schritt wagen, KI beispielsweise in zwei Jahren oder gar in einem Jahr KI schon produktiv einzusetzen, und so die Konkurrenz hinter sich zu lassen.

Wir bei Tietoevry haben ein Framework geschaffen für einen sicheren Umgang mit Large Language Models bzw. mit AI-Modellen, welches man sehr schnell unternehmensweit ausrollen kann, um Datenabfluss zu vermeiden, also sensible Daten nicht irgendwo öffentlich zu übertragen. Ein zweiter Aspekt dieses Frameworks ist, den Mitarbeitern selbst die Möglichkeit zu geben, Use Cases zu evaluieren. Sie können in einer gesicherten Umgebung – zuerst manuell – Dokumente hochladen, die zur Verarbeitung verwendet werden. Und dadurch –mit den Möglichkeiten des Customizing von AI-Modellen – sind Sie zumindest teilweise in der Lage, selbst den Use Case durchzuspielen und herauszufinden, was funktioniert und ob es einem persönlich hilft. Wer das schon selbst evaluiert hat, kann diese Erkenntnisse mit Überzeugung einbringen.

Man will automatisieren, weil es dann noch schneller geht. Das ist vielleicht nicht nur etwas, das mir persönlich in meiner Arbeit hilft, sondern meiner ganzen Abteilung oder ähnlichen Abteilungen und Standorten. 

Welche Vorbereitungen müssen getroffen werden, wenn ein Unternehmen generative KI einsetzen will? 

Die Frage ist: Wie wollen Sie KI einsetzen? Für ein Mehr an Automatisierung? Soll KI jedem Mitarbeiter im Unternehmen für seine tägliche Büroarbeit zur Verfügung gestellt werden? Sollen strategisch oder operativ relevante, spezifische Use Cases aktuell umgesetzt werden? Je nachdem unterscheiden sich die Maßnahmen.

Will ich allen Mitarbeitern AI-Modelle für die Büroarbeit zur Verfügung stellen, dann geht es in die Richtung Change Management und Ausrollung. Wie unterstütze ich die Mitarbeiter? Welche Anwendungsfälle gebe ich ihnen als Beispiele? Wie werden im Unternehmen Schulungen organisiert? Welche Regularien treten darauf auf?

Anders sieht es aus, wenn man im Operativen automatisieren will. Da sind eher technische Details die Datenerhebung, Datenqualität, Systemintegration betreffend wichtig. Das heißt: je nach Anwendungsfall, unterscheiden sich die Ansätze und sehr oft ist es eine Mischung.

Deswegen starten wir mit Partnern meistens klein und schnell, um die ersten Ergebnisse relativ schnell zu erzielen und einen positiven Mehrwert zu schaffen und dann poppen die Use Cases nach der Reihe auf. 

Wenn man den Leuten die Werkzeuge in die Hand gegeben hat, dann bekommen sie Ideen, was man damit machen kann und wollen das auch selbst tun. Danach kann man diese Use Cases mit der Zeit abarbeiten, integrieren, zur Verfügung stellen und eine Mehrheit dazu schaffen. 

Der Kontext ist also wichtig. Esgeht also nicht darum, mit KI alles zu machen, sondern sich zu entscheiden, wo für einen der geeignete, der wichtige Bereich ist?

Wenn ich nur mit Dokumenten arbeite, reicht es vielleicht eine Microsoft-Copilot-Lizenz zu kaufen. Diese hilft beim Übersetzen, Zusammenfassen etc. Aber wenn es etwa um Maschinenbau, um Engineering geht, dann möchte ich die Technologie bei mir lokal haben. Dann möchte ich eine spezialisierte KI haben, die nur für mich in meinem Kerngeschäft tätig ist.  

Braucht man eine KI-Strategie oder sollte man verschiedene Strategien für die Bereiche entwickeln? 

Wir haben ein Framework geschaffen im Unternehmen für ESSR (Ethical Security Safety Regulations), für Ethical Security Safety Regulations im KI-Umfreld. Das ist kein Framework, das eins zu eins wie aus dem Buch befolgt werden muss, sondern es ist ein Risk-Framework. Das heißt, man identifiziert die Risiken für den jeweiligen Anwendungsfalloder auch für die Strategie. Man klärt beispielsweise ob Privacy betroffen ist und entwickelt daraus adaptierte Strategien, wie mit dem Risiko umgegangen wird. Wie wahrscheinlich ist es, dass dieses Risiko eintritt und welche Gegenmaßnahmen treffe ich, um dieses Risiko auszuschalten oder möglichst zu minimieren.

Weitere Aspekte, die man beachten muss: Was ist, wenn sensible Information zur Konkurrenz abwandern? Was ist bei Data Breaches?

Sollen Kunden auf Standardlösungen und standardisierte KI-Lösungen setzen? 

Warum sollte man nicht etablierte Standardsoftware verwenden und kombinieren, um so ein Ziel zu erreichen? Wir verwenden hauptsächlich Microsoft Azure und es ist genau das Gleiche. Das Vorgehen hat sich etabliert. Konzerne sind sehr weit in der Adaption dieser Systeme. Es liegt nahe, KI-Modelle genau in dieser Form zu nutzen, dann hat man automatische Skaliereffekte. Wir fangen bei so einem Framework mit 50 Mitarbeitern an und skalieren ohne Probleme auf mehrere Tausend Benutzer. Einfach dadurch, dass das Ganze in der Cloud verfügbar ist und dass es etablierte Techniken sind, die jetzt auch nicht von Tietoervy erfunden worden oder entwickelt worden sind, sondern von Microsoft oder auch von Amazon Web Services. Dadurch ist auch sichergestellt, dass das Ganze funktioniert und skaliert.

Das Trainieren eines KI-Modells ist sehr energieaufwendig und benötigt enorme Rechenpower im Rechenzentrum. Die meisten nehmen standardisierte KI-Modelle, die aber für den speziellen Anwendungsfall entweder feingetuned oder zugeschnitten werden.

Es gibt sogenannte sehr große Foundation-Modelle, die können sehr viele Tätigkeiten automatisiert erfüllen. Man muss diese aber auf den Anwendungsfall zuschneiden. 

Kommen wir zur Security:  Wie kann man sogenannte Hallucinations, also falsche Angaben der KI, verhindern? 

Am einfachsten vermeidet man Halluzinationen, indem man zusätzliche Informationen bereitstellt. Wenn ich die richtigen Informationen identifizieren kann und dem Modell im Hintergrund bereitstellt, wird es die entsprechenden Antworten geben können. Wenn es keine Informationen zu einem Thema hat, wird es Sachen erfinden. 

Ein einfaches Beispiel: KI-Modelle werden bis zu einem gewissen Datum trainiert. Bis zu diesem Zeitpunkt sind Daten verfügbar, später erfolgte Ereignisse kennt die KI nicht. Aktuelle Ereignisse, wie zum Beispiel die Fußball-Europameisterschaft, sind nicht verfügbar. Wenn ich also nach einem Spielergebnis von einem Spiel frage, das erst gestern stattgefunden hat, wird das KI-Modell per se nicht antworten können. Erst wenn es eine Internetsuche durchführt oder ich Spielberichte zur Verfügung stelle, werde ich passende Antworten bekommen. Und natürlich: Sensible, unternehmensrelevante Interna können nie beim Training verwendet werden und müssen immer explizit zur Verfügung gestellt werden. 

Je allgemeiner die Aufgabe, umso vorsichtiger muss ich sein. Wenn ich von einem KI-Modell alles gelöst erwarte, sei es Lebensmittelsicherheit, Verkehr, Support-Anfragen etc. und alles mit einem Anwendungsfall erschlagen will, dann muss ich sehr vorsichtig bei den generierten Antworten sein. Je spezialisierter der Fall ist, umso angepasster die Interaktion mit dem KI-Modell passiert, umso besser die Daten sind, die ich hinzufüge, desto besser wird das Ganze funktionieren.

Und ja, man wird keine Fehlerquote von 0 Prozent erreichen. Wir haben auch bei den Menschen keine Fehlerquote von 0 Prozent. Aber man kommt auf so geringe Werte, dass es eine deutliche Effizienzsteigerung ermöglicht. Das Wichtige ist, wenn ich so große Datenmengen habe, die ein Mensch schwer bewältigen oder verarbeiten kann, sind das genau die Anwendungsfälle, wo mir KI helfen kann.

Ich komme aus dem Bereich Machine Learning und verfolge die Hautkrebserkennung schon seit 15 Jahren, und das funktioniert einfach besser, wenn es der Computer macht anstatt ein Mensch.

Natürlich gibt es immer Grenzentscheidungen, und da ist es sehr wichtig, dass die finale Entscheidung beim Mediziner liegt. Aber wenn dieser von der KI unterstützt wird, steigert das die Effizienz.

Das ist wie beim Autonomen Fahren. Wir wissen alle, dass die Unfälle mit autonomem Fahren geringer sind als bei menschlichen Fahrern. Doch wer ist haftbar und wie kommuniziert man das? Und muss nicht der Mensch die Endkontrolle haben?

In stark eingeschränkten Anwendungsfällen muss man schneller werden. Zum Beispiel Autobahnen: Diese sind sehr gut beschildert, da ist sehr gut definiert, wie man sich zu verhalten hat, das gibt es weniger unerwartete Situationen. 

Auch die Haftungsfragen müssen natürlich geklärt werden. Für das Hinauffahren auf den Großglockner im Schneesturmhat es wohl wenig Informationen zum Trainieren des KI-Modells gegeben, daher vertraue ich – auch wenn ich nicht der beste Autofahrer bin – meinen eigenen Fahrkünsten mehr als dem autonomen Fahren.

Und man muss sich klar darüber sein, wann man KI einsetzt, wo man KI einsetzt und was die Konsequenzen sind. Hat man diese Aspekte geklärt, dann spricht ja nichts dagegen, dass man das macht. 

Verwenden Sie schon synthetische Daten bei Ihren Kunden?

Synthetische Daten wird man in Zukunft verstärkt brauchen, um KI-Modelle zu trainieren. Auch wenn das schon sehr strapaziert worden ist: Daten sind eben der Schatz der Unternehmen. Was dabei immer wichtiger ist, ist die Frage, wie die Auswahl der Daten gestaltet wird. Man merkt nicht, dass ein Bias vorliegt, wenn zum Beispiel nur Daten aus Europa verwendet werden und das KI-Modell nachher weltweit benutzt wird.

Folgende Fragen sind zu stellen: Wie werden die synthetischen Daten erzeugt? Welche ursprünglichen Daten stehen dahinter? Wie sind die Verteilungen gelernt bzw. trainiert worden? Hier wird noch sehr, sehr viel Experteninput benötigt. Was weiters sehr interessant ist: wenn ich eine Repräsentation meiner Information geschaffen habe, kann ich daraus wieder Schlussfolgerungen und Ableitungen ziehen.

Ein Beispiel aus dem Retail: Ich sehe zehntausende Einkaufskörbe, die gekauft werden. Daraus lassen sich Muster erkennen und ich kann einen künstlichen Einkaufskorb erstellen, um zum Beispiel zu testen, wie mein System reagiert – und kann weiters Szenarien evaluieren. Dadurch lerne und erkenne ich, wie meine KI auf Änderungen reagiert.

Wichtig ist auch zu wissen, für welchen Zweck die Daten generiert wurden. Es wird schwierig sein, ein allgemeines, weltumfassendes Wissensdatenset zu erzeugen. Aber für spezielle Einsatzzwecke lassen sich sehr wohl synthetische Daten generieren. Und wenn ich jetzt ein Datenset zum autonomen Fahren erzeuge, dann wird mir das für die Servicekontrolle wenig helfen. Es ist zwar im gleichen Kontext, nämlich Automobil oder Lastkraftfahrzeuge, aber es hat eine andere Intention. 

Sollen europäische bzw.  österreichische Unternehmen Large Language Modelle aus Europa bevorzugen?

Alle großen Cloud-Anbieter gewährleisten, dass die Modelle in Europa laufen und dass die Daten Europa nicht verlassen. Das ist eine Grundvoraussetzung für europäische Konzerne.

Ich erwarte, dass in den nächsten Jahren spezialisierte Modelle für konkrete Anwendungsfälle entstehen, weil es ungleich schwieriger ist, eine generelle KI zu bauen, die mir alles ermöglicht.

Michael Kommenda

Man soll sich nicht einschränken lassen, wo ein Modell entwickelt worden ist. Man sollte das gesamte System modell-agnostisch bauen. Ich sollte innerhalb kürzester Zeit einen Wechsel von einem KI-Modell zu einem anderen vollziehen können. Ich erwarte, dass in den nächsten Jahren spezialisierte Modelle für konkrete Anwendungsfälle entstehen, weil es ungleich schwieriger ist, eine generelle KI zu bauen, die mir alles ermöglicht.

Ich kann aber leicht in Teilbereichen, wie mathematisches Verständnis, Textverständnis etc., etwas bauen. Dann wähle ich das passende Modell für meinen Anwendungsfall. Umso primitiver das Modell sein soll, umso kleiner, umso schneller werden die Antworten kommen, umso kosteneffizienter wird es für mich sein.

Stichwort „good enough“: Wenn mir die Antwortqualität reicht, dann bitte das günstigere Modell nehmen – weil wenn ich auf 10.000 Mitarbeiter skaliere, wird das Ganze wieder von den Kosten her interessanter und reduziert natürlich auch Strom-Energie-Verbrauch.

Wie stehen Sie zu Reglation von KI? Wie beurteilen Sie den EU-AI-Act?

Regulatorien sind dazu da, die Rahmenbedingungen abzustecken, an die ich mich halten muss. Ich weiß dadurch, in welchem Raum ich mich bewege. Dadurch ist es zum Beispiel möglich, Services zur Beratung anzubieten, weil ich weiß, worauf ich achten muss und dass zum Beispiel Daten Europa nicht verlassen dürfen. Das war übrigens in keinerlei Hinsicht ein Hemmschuh für die Innovation in Europa und wurde relativ schnell respektiert – auch von den Hyperscalern, die aus Amerika kommen, die dann eine entsprechende Lösung geschaffen haben. 

Ich finde es gut, dass der Einsatz von KI europaweit geregelt ist.

Wie kann KI bei Maßnahmen gegen den Fachkräftemangel helfen? 

Wo mir KI helfen kann, ist Expertenwissen zu digitalisieren und zur Verfügung zu stellen. Ich bin zwar kein Chemiker, aber wenn ich eine KI habe, die sich mit chemischen Prozessen auskennt und Informationen enthält, die noch dazu für mein Berufsfeld sehr relevant sind, wird mein Onboarding leichter. Ich kann mich leichter in Prozesse hineindenken, was ansonsten ein Experte gemacht hat. So kann ich das Wissen, das im Unternehmen vorhanden ist, das in den Köpfen der Fachkräfte existiert, vielen zur Verfügung stellen.

Das kann mir helfen, leichter Mitarbeiter zu qualifizieren. Oder wenn jemand mit abgeschlossenem Studium frisch von der Universität kommt, und sehr viel theoretisches Wissen hat, dann hilft die KI bei der Praxis und zeigt Kniffe, wie man manches schneller machen kann.


Mehr Artikel

img-2
Interview

Schneller und sicherer dank KI-Prozessor

Eine brandneue Generation von Computern mit integrierten KI-Chips kommt auf den Markt. Welche Vorteile diese gegenüber «normalen» PCs bieten, erklärt Andre Carvalho, Country Category Manager Personal Systems bei HP Schweiz, im Interview. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*