„Präzision und Nachvollziehbarkeit sind der Schlüssel, um Vertrauen in KI aufzubauen“

Die Europäische Union hat sich mit dem EU AI Act auf ein Regelwerk für den Einsatz von Künstlicher Intelligenz (KI) verständigt. ITWELT.at hat dazu Bernd Greifeneder, CTO und Gründer von Dynatrace, ein paar Fragen gestellt. [...]

Bernd Greifeneder, CTO und Gründer von Dynatrace. (c) Ines Thomsen
Bernd Greifeneder, CTO und Gründer von Dynatrace. (c) Ines Thomsen

Wie könnte der EU AI Act dazu beitragen, die Unterschiede zwischen verschiedenen KI-Modellen klarer zu definieren und damit eine transparentere und vertrauenswürdigere KI-Entwicklung zu fördern? 

Ein guter Ansatz kann darin bestehen, qualitative Attribute von KI zu definieren, um sie zu klassifizieren. Zum Beispiel:  

  • Deterministisch vs. probabilistisch: Die Ergebnisse einer deterministischen KI sind bei gleichem Input wiederholbar, während eine probabilistische KI jedes Mal einen anderen Output erzeugen kann. 
  • Kausalmodell (oder Graphenmodell) vs. probalistisches (oder neuronales) Modell: Das Kausalmodell (oder Graphenmodell)  bietet einen faktenbasierten Entscheidungsbaumansatz, während das probabilistische (neuronale) Modell Ergebnisse mittels Wahrscheinlichkeiten annähert.  
  • Echtzeit- vs. trainingsbasiertes Lernen: Beim Lernen in Echtzeit ist das Modell immer auf dem neuesten Stand der realen Welt, während beim trainingsbasierten Lernen historische Daten herangezogen werden, die bereits veraltet sein können wenn das Lernen abgeschlossen ist. 
  • Erklärbare vs. intransparente KI: Erklärbare KI macht es möglich, die Logik hinter einer Entscheidung nachzuvollziehen. Diese Logik bleibt auch dann noch gleich, wenn die Komplexität einer Aufgabe die Fähigkeiten von Menschen übersteigt. Zum Beispiel kann ein Mensch einen Taschenrechner, der die Quadratwurzel aus 9 berechnet, leicht validieren. Die Quadratwurzel aus 857.632.576 zu validieren übersteigt die Möglichkeiten der meisten Menschen allerdings, wobei die Logik, die zu dem Ergebnis führt, immer noch nachvollziehbar bleibt. Im Gegensatz dazu folgen die 175 Milliarden Parameter, die zum Beispiel für das Training von ChatGPT-3.5[1] verwendet wurden, keiner bestimmten, leicht verständlichen Logik, sondern können nur durch die bereitgestellten Eingabedaten, durch Tests und „Reinforcement Learning“ bzw. durch menschliche Bewertung validiert werden. 

Wie können wir sicherstellen, dass KI-Modelle transparent sind und Nutzer darauf vertrauen können? 

Präzision und Nachvollziehbarkeit sind der Schlüssel, um Vertrauen in KI aufzubauen. Daher wird kausale KI immer öfter genutzt. Diese Art von KI modelliert ein analysiertes System anhand eines Abhängigkeitsgraphen, oder einer Topologie, die den Kontext und die Semantik des Systems beibehält. Dadurch können Zusammenhänge zwischen Ursache und Wirkung hergestellt werden. Der Graph wird in Echtzeit aktualisiert und ist im Gegensatz zu typischen maschinellen Lernmodellen nicht auf historische Daten angewiesen, um Verhalten zu erlernen.  

Kausale KI öffnet die „Black Box“, in der andere Arten von KI arbeiten, und schafft Vertrauen, weil Ergebnisse deterministisch sind – das bedeutet, dass dieselbe Eingabe stets dasselbe Ergebnis erzeugt. Kausale KI ist dadurch transparent und erklärbar. Das macht sie besonders interessant für Anwendungsfälle zur Automatisierung, da Benutzer Entscheidungen leicht validieren können, indem sie die Entscheidungsfindung entlang des Abhängigkeitsgraphen zurückverfolgen. 

Welche grundlegenden Unterschiede bestehen zwischen generativen Modellen und kausalen bzw. prädiktiven KI-Modellen? 

Generative KI basiert auf einem probabilistischen Modell und verwendet die Daten, anhand derer sie trainiert wurde, um Texte, Bilder, Codes oder andere Arten von Inhalten zu erstellen, die die naturlichsprachlichen Abfragen (Prompts) ihrer Nutzer widerspiegeln. Wer selbst schon einmal generative KI ausprobiert hat, wird wissen: Wenn man als Anwender keinen spezifischen und detaillierten Kontext in seiner Eingabeaufforderung angibt, werden die Ergebnisse einer generativen KI höchstwahrscheinlich vage und allgemein gehalten sein, was zu trivialen und wenig hilfreichen Vorschlägen führt, wie z. B. „Wenn Ihre CPU-Auslastung hoch ist, kaufen Sie schnellere Hardware“, anstatt die Ursache für die hohe Last zu begründen. Es gibt auch Bedenken hinsichtlich der Genauigkeit und des Potenzials für Bias, Manipulationen oder „halluzinierte“ Antworten, die ein erhebliches Risiko für Nutzer darstellen könnten, da sie keine analytische Präzision gewährleisten können.   

Andere Formen der KI – wie kausale und prädiktive KI – werden entwickelt, um diese Risiken auszuschließen, da sie für spezifische Anwendungsfälle optimiert wurden. Kausale KI ermittelt die genauen Ursachen und Auswirkungen von Ereignissen oder Verhaltensweisen in digitalen Systemen auf der Grundlage ihrer Topologie oder Struktur, einschließlich der Abhängigkeiten zwischen allen einzelnen Komponenten. Prädiktive KI trainiert maschinelle Lernmodelle, um aus historischen Daten zu lernen und auf der Grundlage von Mustern aus diesen Daten Vorhersagen über zukünftige Ereignisse zu treffen. Diese Arten von KI basieren auf spezifischen Modellen und verwenden domänenspezifische Daten, wodurch sie sich besser für gezielte Anwendungsfälle eignen. 

Wie können generative KI-Modelle mit anderen, besser erklärlichen Formen der KI kombiniert werden, um mehr Transparenz zu erreichen? 

Unternehmen können eine hypermodale KI-Strategie einsetzen, die mehrere Arten von KI – wie kausale, prädiktive und generative KI – und verschiedene Datenquellen – wie Observability-, Security- und Businessdaten – kombiniert. Eine solche Kombination ermöglicht komplexere Schlussfolgerungen, und verleiht den Ergebnissen, die von generativer KI erzeugt wurden, Präzision, Kontext und Bedeutung. Mit diesem Ansatz können präzise und erklärbare Ergebnisse aus kausaler und prädiktiver KI automatisch in die Prompts integriert werden, die eine generative KI zur Erstellung von Inhalten verwendet. Das führt letztendlich zu aussagekräftigeren und genaueren Ergebnissen. 

Warum sind Graphen-basierte und statistische Modelle für spezielle Anwendungsfälle besser geeignet als probabilistische Ansätze? 

Das Graphen-basierte Wissen, das wir sammeln, hilft uns, die genaue kausale Beziehung zwischen Elementen in einem System auf der Grundlage von Fakten zu ermitteln. Ein probabilistischer Ansatz arbeitet wiederum mit Wahrscheinlichkeiten, d. h. er besagt, dass Element A zu 90 % mit Element B zusammenhängen könnte.  Wir verwenden aber auch statistische und probabilistische Modelle für Situationen, in denen eine faktenbasierte Antwort nicht möglich ist, z. B. bei der Vorhersage künftiger Workloads. 


Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*