Künstliche Intelligenz und die Wahrhaftigkeit – das Problem der Halluzination

LLMs ermöglichen natürliche Kommunikation, doch wie Menschen können sie fehlerhafte Antworten liefern, sogenannte „Halluzinationen“. Für den professionellen Einsatz ist es daher entscheidend, spezifische Unternehmensdaten einzubinden, um verlässliche und nachvollziehbare Ergebnisse mit Quellenangaben zu gewährleisten. [...]

Ivo Titscher, Geschäftsführer von ByteSource Deutschland und KI- Experte (c) ByteSource
Ivo Titscher, Geschäftsführer von ByteSource Deutschland und KI- Experte (c) ByteSource

Die Large Language Modelle sind große neuronale Netze, die mit Allgemeinwissen trainiert wurden. Das ermöglicht uns eine normalsprachliche Kommunikation. Diese LLMs haben einen gewissen Wissensschatz, aus dem heraus sie dann Antworten geben, oft richtige Antworten. Aber wie auch bei Menschen, sind diese Antworten manchmal nicht sicher, sie „reden“ aber trotzdem einfach – wie ein Mensch. Und dann kommt eben Blödsinn dabei heraus. Es wird aber nicht als Blödsinn bezeichnet, sondern also Halluzination. Für die professionelle Anwendung muss man jedoch unternehmensrelevante Informationen hinzufügen und diese sind im Zweifelsfall gar nicht öffentlich verfügbar. Oder sie sind öffentlich verfügbar, aber sie sind auf einer Webseite oder in irgendwelchen Portalen gespeichert. Diese werden nun in der Verarbeitung hinzugefügt, sodass ich bei einem Ergebnis immer die Quellenangabe mit einbeziehen kann.

Das wird bei unseren professionellen Anwendungen regelmäßig gemacht, und zwar so weit, dass die KI in einem kleinen Zusatzfenster sogar erklären kann, warum sie zu diesem oder jenem Schluss gekommen ist. Das nennt man „Chain of Thought“. Weil die Quellenangaben immer da sind, kann man damit sicher sein, was die Quelle ist. Letzten Endes sind jedoch die Daten entscheidend, dabei ist auch die Aufbereitung, die Verwaltung und die Sicherheit der Daten ein ganz entscheidender Aspekt. Wenn wir über Halluzinationen sprechen, dann ist es wichtig, die Relationen herzustellen. Im Moment sind die nützlichsten Use Cases in den Bereichen Programmieren und Support.

Wenn beim Programmieren die KI halluziniert, dann funktioniert der Code nicht. Das sehe ich sofort und habe das Feedback sofort. Wir bei ByteSource fokussieren daneben auf Use Case Support im Bereich Support, in dem wir im Atlassian Ökosystem, auf Daten und Prozesse aufbauen und diese dann mit der KI verheiraten. Und wenn jetzt der Support-Chatbot im Dialog mit dem Kunden, ich würde gar nicht sagen falsche, aber vielleicht missverständliche Antworten liefert, dann ist der Schaden überschaubar. Wenn also jemand eine Waschmaschine reparieren oder einen Werkstatttermin für sein Auto vereinbaren will, und es gibt einen Fehler, dann wird man sich für den Fehler entschuldigen. Ich würde dennoch sagen, dass die Fehlerrate trotzdem niedriger ist, als beim Menschen und damit sind wir schon mitten im professionellen Anwendungsbereich.

Im Supportbereich liegt enormes Potential für Effizienzsteigerungen; direkte Unterstützung des Endkunden sowie des Support-Mitarbeiters zu erreichen, ist der Standardfall, den wir derzeit implementieren – also automatisierte Antwortvorbereitung, dabei ist aber immer noch ein Mensch involviert (Human in the Loop). Das Ticket kommt herein, die KI generiert sofort die Antwort, der Support-Mitarbeiter prüft diese und wenn es passt, schickt er es ab.

Was wir uns immer wieder in Erinnerung rufen sollten: Im medizinischen Bereich, in bestimmten Anwendungsfällen für Diagnose, im Finanzbereich etwa für Börsenvorhersage oder Assetsteuerung und auch beim autonomen Fahren weisen alle aktuellen Studien KI-Modelle als dem Menschen überlegen aus. Das ist Realität und das sollte doch zu denken geben. Gerade bei medizinischen Fällen gibt es eine lange Historie und viel Erfahrung; und hier sind mit generativer KI angereicherte Diagnosen einfach besser, weil die Datenmengen ein Mensch gar nicht in dem nötigen Ausmaß bewältigen kann.

*Der Autor Ivo Titscher ist Geschäftsführer von ByteSource Deutschland und KI- Experte.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*