Ivo Titscher, Managing Director bei ByteSource Deutschland, ist vom riesigen Produktivitätspotenzial, das mit KI-Systemen gehoben werden kann, überzeugt – wenn sich das Management voll und ganz dieses Themas annimmt. Im Gespräch mit der ITWELT.at erklärt der KI-Experte praxisnah, was bei der Einfuhr von KI-Lösungen im Unternehmen zu beachten ist. [...]
Ist generative KI nur ein weiterer Schritt in der Automatisierung oder doch eine der industriellen Revolution vergleichbare Transformation?
Ich möchte hier auf einen Aspekt hinweisen, nämlich die Robotik. Die Robotersteuerung oder der Robotereinsatz ist seit einem Jahrzehnt ein Standard in allen möglichen Industrieumgebungen. Wenn man die Möglichkeiten der generativen KI kombiniert mit den Effektoren dieser Roboter hat man ein riesiges neues Anwendungsfeld und eine wesentliche Erleichterung der Roboterprogrammierung und auch beim Einsatz mit diesen, nämlich in der Interaktion.
Für diejenigen, die meinen, einen Industriebetrieb betreffe KI nicht, da man vieles mit der Hand machen müsse, lautet die Botschaft: Ganz im Gegenteil, auch hier verändert generative KI deutlich die Möglichkeiten insbesondere im Einsatz von Robotertechnik und deswegen ist das tatsächlich eine industrielle Revolution. Eben weil KI nicht nur Texte im Büroumfeld verfasst, sondern grundsätzlich in allen Bereichen – eben auch im industriellen Bereich – einsetzbar ist.
Welche Unternehmensbereiche kann man besonders mit KI produktiver machen?
Die große Hemmschwelle ist, dass Unternehmensführungen normalerweise konservativ ist und Innovation immer sehr skeptisch sieht.
Wir haben ja unzählige Beispiele von Unternehmen, die gescheitert sind, Kodak, Nokia und so weiter. Ein Top-Management hat die Verantwortung das Unternehmen strategisch langfristig zu führen. Da darf es nicht heißen, wir beobachten diese Technologie und haben nächstes Jahr einen Workshop dazu geplant. Denn wenn vom Management das Thema tatsächlich umarmt wird, dann ist das Potenzial enorm, das Potenzial der Effektivitätssteigerung und auch Unternehmenswertsteigerung.
Oft werden aber viele gute Gründe gefunden, um zu warten: Man wartet auf Regulationen, man wartet, was der Mitbewerb macht, man wartet auf ein neues Modell oder ähnliche Dinge. Oder Unternehmen lassen sich darauf ein, und erkennen frühzeitig, wie sie KI nutzen und damit Wettbewerbsvorteile erreichen können.
Und es gibt eine Methode, wie man als Unternehmen hier strategisch vorgeht. Zunächst braucht es einen Rahmen für die Mitarbeiter (1). Jedes Unternehmen muss definieren, was erlaubt oder verboten ist. Beispielsweise kann in einem Unternehmen KI generell verboten sein, oder Mitarbeiter dürfen ChatGPT benutzen, um eine Mail zu schreiben, dürfen dabei aber keine Unternehmensdaten verwenden etc. Das muss jedes Unternehmen für sich entscheiden.
Der nächste Schritt (2) ist die Schaffung einer Anlaufstelle. Es muss ja nicht gleich ein Center of Excellence sein, kann es aber sein, was ich auch empfehlen würde. Dafür ist dann der CIO oder CTO zuständig. Das ist die Anlaufstelle.
Dann fordert man die Mitarbeiter auf, dass sie weiterführende Ideen und Vorschläge aus ihrem Bereich, doch bitte dort einreichen (3). In Frankfurt gibt es bereits einen KI-Hub, und bei einigen Banken ist das jetzt schon umgesetzt. Das führte dazu, dass 60, 80, 100 solcher Ideen zusammenkamen. Bei näherer Betrachtung zeigte sich, dass fünf oder sechs Sorten von Ideen immer wieder dasselbe fordern. Jeder kommt auf eine ähnliche Idee und es gibt fünf, sechs Varianten.
Schließlich wurde jeweils eine davon ausgesucht (4) und die werden jetzt umgesetzt.
Hier wird praktisch ein Leuchtturm errichtet und Erfahrungen gesammelt, die man dann wieder allen zurückgibt. Das wäre für mich die strategische Hauptstraße wie man dieses Thema hineinbringt.
Braucht man eine KI-Strategie oder sollte man verschiedene Strategien für die Bereiche entwickeln?
Mein Ansatz ist zu schauen, was was uns am besten voranbringt und dann darauf zu achten, wie wir das sicher machen. Was in dem Zusammenhang besonders wichtig ist: wir sind ein Partner von AWS, die ja in der Digitalisierung sozusagen der Platzhirsch sind. Und AWS hat in allen Bereichen zuverlässige, robuste skalierbare Lösungen und auch für die Daten-Residency (also wo die Daten physikalisch gespeichert werden), was ja in Europa besonders wichtig ist – eben jetzt auch bei den generativen KI-Modellen in Europa. Bei uns müssen keine Daten mehr Europa verlassen. Wir haben alle unsere Lösungen im Rechenzentrum in Frankfurt oder in Paris.
Durch die Breite des AWS-Service-Angebots gilt: Was immer an Lösungen angestrebt wird, wir können es lösen. Es gibt eine technische Lösung mit einem Cloud-Partner.
Wir haben diese Thematik auch im Cloud-Spektrum schon seit 10, 20 Jahren. Ich komme aus Frankfurt und habe viel mit Banken zu tun. Hier gibt es einen Zusammenschluss der Banken, die jetzt ein gemeinsames Audit bei den Cloud-Providern machen. Das heißt, der Kunde möchte immer genau wissen, wo seine Daten sind und möchte auditieren, welcher Administrator wo Zugang hat. Das kann natürlich nicht jede einzelne Bank durch eine Begehung vor Ort im Rechenzentrum erledigen. Die Banken haben eine Gruppe namens ECUC gebildet und sich darauf geeinigt, regelmäßige Audits gemeinsam zu machen. Da bekommen alle die Berichte und alle sind in der Cloud. Sensibler als diese Bank- bzw. Finanzdaten sind nur noch Gesundheitsdaten.
Insofern würde ich sagen, das ist gelöst. Wir vom Fach sollten mit dieser Einstellung nach draußen gehen, dass wir solche Frameworks brauchen, über die wir uns Gedanken machen und wo wir die Hausaufgaben machen, und deswegen muss sich der Kunde hier nicht selber bremsen.
Sie sagen, die „Hausaufgaben“der Firmen übernehmen Sie bzw. werden von Ihnen abgedeckt?
Ja natürlich. Wenn der Kunde sich nicht in der Lage fühlt, die Verantwortung zu übernehmen, dann gibt es ein Managed Service. Hier wird beschrieben, was zu tun ist, welche Daten hereinkommen, welche hinausgehen, wie sie gemanagt, wie sie gesichert werden und so weiter.
Kommen wir zur Security. Wie kann man sogenannte Hallucinations der KI, also falsche Angaben und Auskünfte verhindern?
Die Large Language Modelle sind große neuronale Netze, die mit Allgemeinwissen trainiert wurden. Das ermöglicht uns eine normalsprachliche Kommunikation. Diese LLMs haben einen gewissen Wissensschatz, aus dem heraus sie dann Antworten geben, oft richtige Antworten. Aber wie auch bei Menschen sind diese Antworten manchmal nicht sicher, werden aber trotzdem mitgeteilt und dann kommt eben Blödsinn heraus, der als Halluzination bezeichnet wird. Für die professionelle Anwendung muss man jedoch unternehmensrelevante Informationen hinzufügen und diese sind im Zweifelsfall nicht öffentlich verfügbar. Oder sie sind öffentlich verfügbar, aber sie sind auf einer Webseite oder in irgendwelchen Portalen gespeichert.
Diese werden nun in der Verarbeitung hinzugefügt, sodass ich bei einem Ergebnis immer die Quellenangabe mit einbeziehen kann. Das wird bei unseren professionellen Anwendungen regelmäßig gemacht, und zwar so weit, dass die KI in einem kleinen Zusatzfenster sogar erklären kann, warum sie zu diesem oder jenem Schluss gekommen ist. Das nennt man „Chain of Thought“. Weil die Quellenangaben stets vorhanden sind, bin ich damit so sicher wie die Quelle. Letzten Endes sind jedoch die Daten entscheidend, dabei ist auch die Aufbereitung, die Verwaltung und die Sicherheit der Daten ein ganz entscheidender Aspekt.
Wenn wir über Halluzinationen sprechen, ist es wichtig, die Relationen herzustellen. Im Moment finden sich die nützlichsten Use Cases in den Bereichen Programmieren und Support.
Wenn beim Programmieren die KI halluziniert, dann funktioniert der Code nicht. Das sehe ich sofort und habe das Feedback sofort. Wir bei ByteSource fokussieren daneben im Support auf Use Case Support, in dem wir im Atlassian Ökosystem, auf Daten und Prozesse aufbauen und diese dann mit der KI verheiraten. Gibt jetzt der Support-Chatbot im Dialog mit dem Kunden, ich würde gar nicht sagen falsche, aber vielleicht missverständliche Antworten, dann ist der Schaden überschaubar. Wenn also jemand eine Waschmaschine reparieren oder einen Werkstatttermin für sein Auto vereinbaren will, und es gibt einen Fehler, dann wird man sich für den Fehler entschuldigen. Dennoch ist die Fehlerrate trotzdem niedriger als beim Menschen und damit sind wir schon mitten im professionellen Anwendungsbereich.
Im Supportbereich liegt enormes Potential für Effizienzsteigerungen: direkte Unterstützung des Endkunden sowie des Support-Mitarbeiters zu erreichen, ist der Standardfall, den wir derzeit implementieren – also automatisierte Antwortvorbereitung. Dabei ist immer noch ein Mensch involviert („human in the loop“): das Ticket kommt herein, die KI generiert sofort die Antwort, der Support-Mitarbeiter prüft es und wenn es passt und schickt er es ab.
Ein Weckruf für die, die es nicht verfolgt haben: Im medizinischen Bereich, in bestimmten Anwendungsfällen für Diagnose, im Finanzbereich etwa für Börsenvorhersage oder Assets-Steuerung und auch beim autonomen Fahren weisen alle aktuellen Studien KI-Modelle als dem Menschen überlegen aus. Das ist Realität und sollte zu denken geben. Gerade bei medizinischen Fällen gibt es eine lange Historie und viel Erfahrung; hier sind mit generativer KI angereicherte Diagnosen einfach besser, weil die Datenmengen ein Mensch gar nicht in dem Maße bewältigen kann.
Sie haben autonomes Fahren erwähnt. Wir wissen alle, dass die Unfälle mit autonomem Fahren geringer sind als bei menschlichen Fahrern. Doch wer ist haftbar und wie kommuniziert man das?
Wenn ein Tesla-Fahrer hinter dem Lenkrad sitzt und schaltet seinen sogenannten Autopiloten ein, was übrigens keine günstige Bezeichnung ist, dann passieren nachweislich weniger Unfälle, als wenn der Mensch fährt. Diese Daten sind seit Jahren bekannt. Und auch hier ist der Mensch ultimativ verantwortlich. Er hat das genauso eingeschaltet wie ein Pilot im Flugzeug seinen Autopiloten einschalten und in die Kaffeeküche gehen kann. Aber wenn etwas passiert, ist der Pilot verantwortlich. Von der Verhältnismäßigkeit, Aufwand, Ertrag und Risiko betrachtet, sind alle technisch gestützten Systeme weit überlegen.
Wir sind uns einig, dass die Veränderungsgeschwindigkeit in der Welt sehr hoch ist und sie wahrscheinlich weiter steigt. Das heißt, man muss regelmäßig zum TÜV oder muss überprüfen, was man tut. Der Fachbegriff dazu lautet „agil“. Der ist zwar ein bisschen abgenutzt. Aber die Idee ist, etwas zu machen, dann zu schauen, wie es funktioniert hat, um es danach zu verbessern und künftig eine verbesserte Version zu haben.
Genauso haben die Hyperscaler über Jahrzehnte ihre Plattform entwickelt und darauf sollte man sich stützen. Netflix läuft zum Beispiel komplett auf AWS oder Uber und andere Services benutzen alle Cloud-Dienstleister. Warum? Weil auch diese großen Unternehmen mit Milliardenbudgets nicht so effizient und nicht so innovativ sein können, wie ein Hyperscaler.
Da kann man sich als Unternehmen eine Sorge nehmen und sagen, lass uns auf einen der großen Cloud-Provider setzen. Die haben viel bessere Lösungen, als wir mit unseren Mitteln jemals erarbeiten können.
Verwenden Sie schon synthetische Daten bei Ihren Kunden?
Was wir machen, ist die Datenbestände in einem Unternehmen, die teilweise nicht die gewünschte Qualität haben, zu verarbeiten, und zwar nicht zum Trainieren des neuronalen Netzes, sondern zum Erweitern der Informationen, die man mit dem Datenmodell austauscht.
Das macht großen Sinn. Aber die synthetischen Daten und das Large Language Model sollte für den Anwender in Europa oder unsere Zielgruppe ohnedies nur ein Service sein, den er konsumiert.
Übrigens sollte sich der Anwender bewusst sein, dass der Wettbewerb der verschiedenen Modelle nach wie vor im Gange ist, dass es Innovationen und Weiterentwicklungen gibt. Hier ein praktischer Rat: man sollte seine KI nicht so bauen, sodass man sich von einem Modell abhängig macht. Beispielsweise sieht es derzeit danach aus, dass OpenAI seinen Vorsprung einbüßt, denn das jüngste Modell von Anthropic, Claude 3.5, ist OpenAI tatsächlich in bestimmten Bereichen überlegen.
Wir sprachen vorhin von agile und schnellen Innovationszyklen. Ich würde sagen, was früher ein Jahr brauchte, benötigt heute bloß ein Quartal. Man sollte sich deswegen in seinem Unternehmen für seine Anwendungsfälle so aufstellen, dass man dieses Modell gegebenenfalls austauschen kann, wenn Dinge unbefriedigend sind, die Antworten nicht gut sind oder man sehr viel nacharbeiten muss. Das haben wir mehrfach erlebt, dass durch ein neues Modell plötzlich alles viel besser läuft und man viel mehr damit machen kann. Das wird eben durch die großen Provider der großen Sprachmodelle gewährleistet.
Auch im Bereich der Kosten gibt es Wettbewerb, sodass man gut beraten ist, wenn man Lösungen modulartig aufbaut und dann das jeweilige Modell ein- und ausbauen kann.
Sollen europäische bzw. österreichische Unternehmen bei der Wahl eines Large Language Modelle europäische Anbieter bevorzugen?
Wir werden in wenigen Quartale zu dem Zustand kommen, dass auch die Open-Source-Modelle wettbewerbsfähig und good enough für einen Anwendungsfall sind. Das sind sie bereits manchmal schon, aber häufig nicht.
Im Moment sollte man Dinge mit der bestmöglichen Technik möglich machen, nur die Qualität erzeugt Akzeptanz. Und wenn ich austauschen kann, tausche ich ein proprietäres Modell A gegen B und irgendwann eben auch gegen ein Open-Source-Modell und ein amerikanisches gegen ein europäisches oder ein deutsches aus. Aber wie gesagt, wir haben mit Anthropic Claude ein Modell, das bereits heute in einem deutschen Rechenzentrum läuft und das praktisch alle gesetzlichen Auflagen der Europäischen Union erfüllt. Das ist ein proprietäres, wettbewerbsfähiges Large-Language-Model, das von Amazon betrieben wird und von Anthropic stammt, einer Firma, die von ehemaligen Open-AI-Mitarbeitern gegründet wurde.
Mein Rat: Fangen Sie damit an und machen sich keine weiteren Gedanken. Die Daten gehen nicht in die USA, sie bleiben in Europa. Und später werden Sie auf ein Open-Source-Modell umstellen können, das ohnehin betrieben werden kann, wo immer man möchte.
Wie beurteilen Sie das Thema Regulation, insbesondere den EU-AI-Act?
Ich bin überzeugter Europäer und finde den AI-Act gut. Regulatorik hilft immer der Orientierung. Der Anspruch, dass alles perfekt ist, der ist natürlich schwer zu erfüllen.
Im EU-AI-Act geht es um alle Arten von KI. Hier gilt es zunächst einzuwerten, welche Art von KI hat welche Auswirkungen und sodann ein System zu schaffen, das die Gefahr bestimmt: hochgefährlich, mittelgefährlich, gar nicht gefährlich. Generative KI wird nur im Kontext von Bewertungen als Hochrisiko eingestuft, also beispielsweise zur Bewertung der Kreditwürdigkeit, Analyse von Lebensläufen oder Evaluation von Arbeitskräften für Beförderungen oder Kündigungen eingesetzt werden.
Ein Chatbot zu den Inhalten einer Website oder ein Co-Pilot zur Erzeugung von Antworten auf Supportanfragen fallen nicht darunter.
Dies Einwertung ist der Mehrwert, den das EU-AI-Gesetz bringt. Klar ist auch, dass sich das relativ schnell entwickeln muss. Positiv anzuerkennen ist jedenfalls, das Europa diese Regulierung tatsächlich zustande bekommen hat.
In den USA gilt generell: im Zweifelsfall ist alles erlaubt, Regulatorik ist dort ein schwieriges Thema. Insofern ist es klar, dass die EU hier nach vorne geht. Das ist ein guter Orientierungspunkt, wo jeder Unternehmensführer seine Rechtsabteilung fragen kann und man eine gewisse Sicherheit hat.
Ist es nicht eine große Security-Gefahr, wenn ich die Macht der Large Language Models künftig auf meinem Handy habe, und dann dort Deepfake-Videos und Deepfake-Stimmen generieren kann?
Ich bin ein Optimist. Ich möchte einen anderen Aspekt nennen: nämlich die Verfügbarkeit von Informationen für wenig Informierte.
Das Internet sollte die Demokratisierung der Informationen bringen, und hat diesbezüglich auch einen großen Schritt gemacht. Wikipedia macht Wissen zugänglich für viele Leute. Aber es gibt eben weite Kreise oder viele Menschen, die in bestimmten Themen einfach nicht das Wissen, den Hintergrund, die Erfahrung haben.
Diese Menschen können aber jetzt, mit welchem Modell auch immer, eine natürlich sprachliche Frage stellen, sogar in ihrem Dialekt, in ihren Begrifflichkeiten und bekommen eine vernünftige, sachliche und eine angemessene Antwort zurück.
Ich sehe das als einen riesigen Schritt für die Demokratie und habe diesbezüglich große Hoffnungen und Erwartungen: wer sich informieren will, kann auf seinem Niveau Fragen stellen und dann auch weiterfragen.
Ganz wichtig ist, dass ein Frage-Chat immer neue Fragen mit vorschlägt, weil manchen Menschen tun sich schwer beim Fragestellen. Aber auf diese Weise können sie sich mit politischen Themen, mit wirtschaftlichen Fragen und dergleichen auseinandersetzen.
Jeder wird in seiner Sprache abgeholt. Insofern bin ich sehr optimistisch, dass diese Chat-GPT-Welt positive Auswirkungen auf die Menschheit hat.
Mit Social Media ist aber genau das Gegenteil der Fall. Ein Large Language Model, erst recht ein Open Source Large Language Model, wird mit nachvollziehbaren Quellen trainiert und ist dann unveränderlich im Betrieb bis die nächste Version kommt. Das lernt nicht von irgendjemandem, der dort Hassreden hineinstellt, sondern es hat zunächst seinen Standard. Wenn das Trainingset bekannt ist und die Anbieter transparent und Open Source sind, dann kann ich das zu 100 Prozent nachvollziehen, wie die KI zu ihrer Aussage kommt. Und dann kann ich mich als User auf die Antwort darauf verlassen.
Ich habe für mich ChatGPT so einegestelle, daß ich immer dialektische Antworten bekomme: Was ist die These, was ist die Antithese, was ist die Synthese? Das macht das System fantastisch gut und hat mein Denken und Lernen und Verständnis wesentlich nach vorne gebracht.
Wie sehen Sie die Rolle des Menschen beim Einsatz von KI-Systemen?
Also die Menschen tragen ja dazu bei, dass die Informationen publiziert werden. Das Medium ist das Internet. Die Large-Language-Models, die wir kennen, sind mit dem sogenannten Common Crawler gefüttert worden. Und das ist jetzt quasi das beste Wissen und Gewissen. Da ist natürlich viel Falsches enthalten. Das ganze Wissen der Menschheit ist immer nur relativ richtig. Die allermeisten menschlichen, wissenschaftlichen Erkenntnisse und Theorien haben sich im Nachhinein als falsch herausgestellt. Aber für den Moment ist es das Beste, was wir haben.
Wenn diese Modelle – sowohl proprietäre als auch Open Source – weiter trainiert werden, können wir damit rechnen, dass wir immer bessere Modelle bekommen. Das neuronale Netz hat innerhalb von zwei, drei Jahren mit unfassbarer Geschwindigkeit das ganze Wissen aus dem Internet in dieses Netz hineintrainiert. Jeder Mensch kennt und sieht hat jedoch nur einen ganz kleinen Ausschnitt, einen Bruchteil von der Welt.
Sowohl die kommerziellen als auch die End-User-KI-Systeme sind unheimlich leistungsfähig. Die KI kann riesige Datenmengen, etwa 100 Seiten PDF-Dokumente, mit einem „Blick“ erfassen, weil das „Auge“ der KI einfach riesig ist. Wir sollten positiv in Betracht ziehen, dass wir da einen starken Partner haben können.
Glauben Sie, dass KI den Fachkräftemangel bekämpfen, abfedern kann? Welche Skills werden in Zukunft für Mitarbeitende in einem neuen KI-Zeitalter benötigt?
Ein Beispiel aus der Praxis: Wir hatten in den Support-Use-Cases aufgrund hoher Fluktuation mehrfach den Fall, dass sich das Onboarding-Problem verschärft hat. Es ist nun tatsächlich so, dass unser Chatbot das Onboarding macht. Der erlaubt den Interessenten zu fragen, was sie wissen wollen und sich so mit den jeweiligen Produkten und Dienstleistungen auseinandersetzen.
Ich weiß nicht, ob das jetzt ein Mittel gegen den Fachkräftemangel ist, aber wir haben 200 Jahre Industrialisierungsgeschichte, wo jede neue Technologie zu den großen Sorgen geführt hat und am Ende war immer noch genug Arbeit für alle da.
Ich glaube, es wird auch diesmal so sein. Ich glaube, dass jeder die Chance hat, hier eine Superpower zu gewinnen, wenn er für sich selber erschließt, wie er die Technologie nutzt. Und mit dieser Superpower ist er eben auch besser zu beschäftigen: Die Beschäftigungsfähigkeit steigt, wenn ich eine Fachkraft mit KI-Wissen bin.
Be the first to comment