Künstliche Intelligenz und die Wahrhaftigkeit – das Problem der Halluzination

LLMs ermöglichen natürliche Kommunikation, doch wie Menschen können sie fehlerhafte Antworten liefern, sogenannte „Halluzinationen“. Für den professionellen Einsatz ist es daher entscheidend, spezifische Unternehmensdaten einzubinden, um verlässliche und nachvollziehbare Ergebnisse mit Quellenangaben zu gewährleisten. [...]

Ivo Titscher, Geschäftsführer von ByteSource Deutschland und KI- Experte (c) ByteSource
Ivo Titscher, Geschäftsführer von ByteSource Deutschland und KI- Experte (c) ByteSource

Die Large Language Modelle sind große neuronale Netze, die mit Allgemeinwissen trainiert wurden. Das ermöglicht uns eine normalsprachliche Kommunikation. Diese LLMs haben einen gewissen Wissensschatz, aus dem heraus sie dann Antworten geben, oft richtige Antworten. Aber wie auch bei Menschen, sind diese Antworten manchmal nicht sicher, sie „reden“ aber trotzdem einfach – wie ein Mensch. Und dann kommt eben Blödsinn dabei heraus. Es wird aber nicht als Blödsinn bezeichnet, sondern also Halluzination. Für die professionelle Anwendung muss man jedoch unternehmensrelevante Informationen hinzufügen und diese sind im Zweifelsfall gar nicht öffentlich verfügbar. Oder sie sind öffentlich verfügbar, aber sie sind auf einer Webseite oder in irgendwelchen Portalen gespeichert. Diese werden nun in der Verarbeitung hinzugefügt, sodass ich bei einem Ergebnis immer die Quellenangabe mit einbeziehen kann.

Das wird bei unseren professionellen Anwendungen regelmäßig gemacht, und zwar so weit, dass die KI in einem kleinen Zusatzfenster sogar erklären kann, warum sie zu diesem oder jenem Schluss gekommen ist. Das nennt man „Chain of Thought“. Weil die Quellenangaben immer da sind, kann man damit sicher sein, was die Quelle ist. Letzten Endes sind jedoch die Daten entscheidend, dabei ist auch die Aufbereitung, die Verwaltung und die Sicherheit der Daten ein ganz entscheidender Aspekt. Wenn wir über Halluzinationen sprechen, dann ist es wichtig, die Relationen herzustellen. Im Moment sind die nützlichsten Use Cases in den Bereichen Programmieren und Support.

Wenn beim Programmieren die KI halluziniert, dann funktioniert der Code nicht. Das sehe ich sofort und habe das Feedback sofort. Wir bei ByteSource fokussieren daneben auf Use Case Support im Bereich Support, in dem wir im Atlassian Ökosystem, auf Daten und Prozesse aufbauen und diese dann mit der KI verheiraten. Und wenn jetzt der Support-Chatbot im Dialog mit dem Kunden, ich würde gar nicht sagen falsche, aber vielleicht missverständliche Antworten liefert, dann ist der Schaden überschaubar. Wenn also jemand eine Waschmaschine reparieren oder einen Werkstatttermin für sein Auto vereinbaren will, und es gibt einen Fehler, dann wird man sich für den Fehler entschuldigen. Ich würde dennoch sagen, dass die Fehlerrate trotzdem niedriger ist, als beim Menschen und damit sind wir schon mitten im professionellen Anwendungsbereich.

Im Supportbereich liegt enormes Potential für Effizienzsteigerungen; direkte Unterstützung des Endkunden sowie des Support-Mitarbeiters zu erreichen, ist der Standardfall, den wir derzeit implementieren – also automatisierte Antwortvorbereitung, dabei ist aber immer noch ein Mensch involviert (Human in the Loop). Das Ticket kommt herein, die KI generiert sofort die Antwort, der Support-Mitarbeiter prüft diese und wenn es passt, schickt er es ab.

Was wir uns immer wieder in Erinnerung rufen sollten: Im medizinischen Bereich, in bestimmten Anwendungsfällen für Diagnose, im Finanzbereich etwa für Börsenvorhersage oder Assetsteuerung und auch beim autonomen Fahren weisen alle aktuellen Studien KI-Modelle als dem Menschen überlegen aus. Das ist Realität und das sollte doch zu denken geben. Gerade bei medizinischen Fällen gibt es eine lange Historie und viel Erfahrung; und hier sind mit generativer KI angereicherte Diagnosen einfach besser, weil die Datenmengen ein Mensch gar nicht in dem nötigen Ausmaß bewältigen kann.

*Der Autor Ivo Titscher ist Geschäftsführer von ByteSource Deutschland und KI- Experte.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*