Künstliche Intelligenz und die Wahrhaftigkeit – das Problem der Halluzination

LLMs ermöglichen natürliche Kommunikation, doch wie Menschen können sie fehlerhafte Antworten liefern, sogenannte „Halluzinationen“. Für den professionellen Einsatz ist es daher entscheidend, spezifische Unternehmensdaten einzubinden, um verlässliche und nachvollziehbare Ergebnisse mit Quellenangaben zu gewährleisten. [...]

Ivo Titscher, Geschäftsführer von ByteSource Deutschland und KI- Experte (c) ByteSource
Ivo Titscher, Geschäftsführer von ByteSource Deutschland und KI- Experte (c) ByteSource

Die Large Language Modelle sind große neuronale Netze, die mit Allgemeinwissen trainiert wurden. Das ermöglicht uns eine normalsprachliche Kommunikation. Diese LLMs haben einen gewissen Wissensschatz, aus dem heraus sie dann Antworten geben, oft richtige Antworten. Aber wie auch bei Menschen, sind diese Antworten manchmal nicht sicher, sie „reden“ aber trotzdem einfach – wie ein Mensch. Und dann kommt eben Blödsinn dabei heraus. Es wird aber nicht als Blödsinn bezeichnet, sondern also Halluzination. Für die professionelle Anwendung muss man jedoch unternehmensrelevante Informationen hinzufügen und diese sind im Zweifelsfall gar nicht öffentlich verfügbar. Oder sie sind öffentlich verfügbar, aber sie sind auf einer Webseite oder in irgendwelchen Portalen gespeichert. Diese werden nun in der Verarbeitung hinzugefügt, sodass ich bei einem Ergebnis immer die Quellenangabe mit einbeziehen kann.

Das wird bei unseren professionellen Anwendungen regelmäßig gemacht, und zwar so weit, dass die KI in einem kleinen Zusatzfenster sogar erklären kann, warum sie zu diesem oder jenem Schluss gekommen ist. Das nennt man „Chain of Thought“. Weil die Quellenangaben immer da sind, kann man damit sicher sein, was die Quelle ist. Letzten Endes sind jedoch die Daten entscheidend, dabei ist auch die Aufbereitung, die Verwaltung und die Sicherheit der Daten ein ganz entscheidender Aspekt. Wenn wir über Halluzinationen sprechen, dann ist es wichtig, die Relationen herzustellen. Im Moment sind die nützlichsten Use Cases in den Bereichen Programmieren und Support.

Wenn beim Programmieren die KI halluziniert, dann funktioniert der Code nicht. Das sehe ich sofort und habe das Feedback sofort. Wir bei ByteSource fokussieren daneben auf Use Case Support im Bereich Support, in dem wir im Atlassian Ökosystem, auf Daten und Prozesse aufbauen und diese dann mit der KI verheiraten. Und wenn jetzt der Support-Chatbot im Dialog mit dem Kunden, ich würde gar nicht sagen falsche, aber vielleicht missverständliche Antworten liefert, dann ist der Schaden überschaubar. Wenn also jemand eine Waschmaschine reparieren oder einen Werkstatttermin für sein Auto vereinbaren will, und es gibt einen Fehler, dann wird man sich für den Fehler entschuldigen. Ich würde dennoch sagen, dass die Fehlerrate trotzdem niedriger ist, als beim Menschen und damit sind wir schon mitten im professionellen Anwendungsbereich.

Im Supportbereich liegt enormes Potential für Effizienzsteigerungen; direkte Unterstützung des Endkunden sowie des Support-Mitarbeiters zu erreichen, ist der Standardfall, den wir derzeit implementieren – also automatisierte Antwortvorbereitung, dabei ist aber immer noch ein Mensch involviert (Human in the Loop). Das Ticket kommt herein, die KI generiert sofort die Antwort, der Support-Mitarbeiter prüft diese und wenn es passt, schickt er es ab.

Was wir uns immer wieder in Erinnerung rufen sollten: Im medizinischen Bereich, in bestimmten Anwendungsfällen für Diagnose, im Finanzbereich etwa für Börsenvorhersage oder Assetsteuerung und auch beim autonomen Fahren weisen alle aktuellen Studien KI-Modelle als dem Menschen überlegen aus. Das ist Realität und das sollte doch zu denken geben. Gerade bei medizinischen Fällen gibt es eine lange Historie und viel Erfahrung; und hier sind mit generativer KI angereicherte Diagnosen einfach besser, weil die Datenmengen ein Mensch gar nicht in dem nötigen Ausmaß bewältigen kann.

*Der Autor Ivo Titscher ist Geschäftsführer von ByteSource Deutschland und KI- Experte.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*