Generative KI ist unglaublich gut darin, Informationen zu recherchieren und aufzubereiten. Unfehlbar ist sie allerdings nicht – sie kann durchaus falsch liegen oder vorurteilsbehaftete Ergebnisse liefern. Sieben Maßnahmen helfen Unternehmen dabei, das Risiko von Halluzinationen und Bias zu minimieren. [...]

Immer mehr Unternehmen setzen generative KI (GenAI) ein, um beispielsweise Mitarbeitern den Zugang zu internem Wissen zu erleichtern, Dokumente und Texte zu verfassen oder den Kundenservice zu verbessern. Doch so vielseitig und leistungsfähig die KI-Modelle inzwischen sind – ihre Ausgaben sind nicht immer korrekt: Es kann vorkommen, dass sie falsche oder ungenaue Informationen liefern oder unfaire, diskriminierende Entscheidungen treffen.
Die Gründe für Fehler, Halluzinationen und Bias sind vielfältig und reichen von ungeeigneten KI-Modellen über minderwertige Trainingsdaten bis hin zu Manipulationen der KI selbst. Dell Technologies erläutert, was Unternehmen tun können, um ihre KI-Anwendungen zuverlässiger, fairer und vertrauenswürdiger zu gestalten.
Passende KI-Modelle auswählen
Obwohl Large Language Models (LLMs), die die Basis vieler GenAI-Anwendungen sind, mit riesigen Datenmengen trainiert werden, sind sie nicht allwissend. Dennoch versuchen sie möglichst immer, eine plausibel klingende Antwort zu geben, selbst wenn sie sich diese ausdenken müssen. Bei kleineren, domänenspezifischen Modellen ist das Risiko solcher Halluzinationen deutlich geringer – sie besitzen zwar kein so breit gestreutes Wissen wie LLMs, dafür aber mehr Spezialwissen in einem bestimmten Bereich. Unternehmen sollten daher lieber ein zum jeweiligen Anwendungsfall passendes Modell wählen, als zu versuchen, alle Anwendungsfälle mit einem LLM abzudecken. Darüber hinaus ist die Entscheidung für ein europäisches oder Open-Source-Modell sinnvoll, da bei diesen besser nachvollziehbar ist, mit welchen Daten und nach welchen Regeln sie trainiert wurden. Das macht es einfacher, Wissenslücken und fehlerhafte Ergebnisse zu erkennen.
KI mit internen Daten füttern
Um gute Antworten zu liefern, benötigen KI-Modelle neben dem Wissen, das ihnen vorab antrainiert wurde, auch interne Informationen des Unternehmens, die zum jeweiligen Anwendungsfall passen. Diese Informationen können durch ein Fine-Tuning ins Modell integriert werden, was die Gefahr von Halluzinationen weiter senkt. Die Informationen können dem Modell aber auch via Retrieval-Augmented Generation (RAG) zur Verfügung gestellt werden – es nutzt dann lediglich seine generativen Fähigkeiten und bezieht das Wissen aus den eingebundenen Datenbanken und Dokumenten. Beide Ansätze lassen sich auch in Kombination einsetzen: Das Fine-Tuning sorgt dann dafür, dass das Modell die Anfragen besser versteht und Antworten fachgerecht formuliert, während RAG eine stets aktuelle Datenbasis bereitstellt.
Auf hohe Datenqualität achten
Trainieren Unternehmen eigene KI-Modelle oder fine-tunen bestehende Modelle, müssen sie dafür ausgewogene und hochwertige Daten verwenden. Andernfalls kann das Modell keine korrekten, fairen und vorurteilsfreien Antworten generieren. Oft reicht es schon, dass veraltete oder redundante Trainingsdaten zum Einsatz kommen, um ein Modell zu beeinträchtigen. Alte Daten, die nicht mehr gesellschaftlichen Standards entsprechen, können beispielsweise dazu führen, dass die KI-Ausgaben diskriminierend sind oder Stereotype enthalten. Redundante Informationen wiederum können für eine zu starke Gewichtung bestimmter Themen, Fakten und Meinungen sorgen. Ein modernes Datenmanagement, mit dem sich strukturierte Daten über alle Systeme und Speicherorte hinweg einheitlich ansprechen lassen, erleichtert es, Daten zu prüfen, zu bereinigen und flexibel für verschiedene KI-Modelle bereitzustellen.
Antworten mit Quellenangaben versehen
Bezieht das KI-Modell sein Wissen via RAG von internen Datenbanken und File Shares, können Unternehmen die Ausgaben ihrer GenAI-Anwendungen so gestalten, dass sie auch Quellenangaben enthalten. Diese erlauben es Mitarbeitern, die Antworten zu überprüfen – etwa stichprobenartig oder wenn sie unplausibel erscheinen. Um Anfragen optimal zu formulieren, Ergebnisse zu hinterfragen und im Zweifelsfall zu verifizieren, benötigen Mitarbeiter allerdings Trainings. Anschließend sammeln sie am besten schnell Erfahrungen in der Praxis, wobei erfahrenere Kollegen als Ansprechpartner zur Verfügung stehen sollten, um bei Fragen oder Problemen zu unterstützen.
Leitplanken für die KI setzen
Durch entsprechend formulierte Prompts können KI-Modelle unter Umständen dazu gebracht werden, unangemessene Sprache zu benutzen, vertrauliche Daten preiszugeben oder gefährliche Inhalte wie Malware-Code zu generieren. Unternehmen sollten das mit sogenannten Guardrails verhindern. Dabei handelt es sich um Schutzmechanismen, die alle Eingaben und Ausgaben überprüfen und sicherstellen, dass die KI keine themenfremden Anfragen oder bekannte Jailbreaking-Prompts bearbeitet und dass personenbezogene Daten sowie Hassrede und verletzende Sprache ausgefiltert werden.
Manipulationen an Trainingsdaten verhindern
Auch eine absichtliche Manipulation der Trainingsdaten kann zu falschen, ungenauen, unfairen oder diskriminierenden Ausgaben der KI führen. Es ist äußerst schwierig und aufwendig, diese Manipulationen zu erkennen und die veränderten Datensätze aufzuspüren, um sie zu entfernen beziehungsweise wieder in ihren Ursprungszustand zu versetzen. Besser ist es daher, das Trainingsmaterial durch proaktive Sicherheitsmaßnahmen zu schützen. Hierzu zählen neben Security Basics wie sicheren Passwörtern und Multifaktor-Authentifizierung auch moderne Sicherheitskonzepte wie Zero Trust. Sie verhindern unter anderem durch eine minimale Vergabe von Berechtigungen und eine konsequente Verifizierung aller Zugriffe, dass Unbefugte die Daten manipulieren. Darüber hinaus helfen fortschrittliche Sicherheits- und Entwicklungstools, ungewöhnliche Zugriffe und Veränderungen an den Daten aufzuspüren und Schwankungen in der Genauigkeit von KI-Modellen zu erkennen.
Risikobewertungen für KI-Entscheidungen vornehmen
Alle genannten Maßnahmen reduzieren das Risiko, dass die KI falsch liegt. Allerdings gibt es Bereiche, in denen auch ein geringes Risiko nicht hinnehmbar ist, etwa wenn es um sensible Lebensbereiche von Menschen oder sicherheitskritische Aufgaben geht. Deshalb sollten Unternehmen eine Risikobewertung vornehmen und die Folgen von falschen oder unfairen Antworten und Entscheidungen abklären. Anschließend können sie festlegen, in welchen Bereichen die KI weitgehend autonom agieren darf und in welchen Bereichen eine Überprüfung und gegebenenfalls eine Anpassung der generierten Inhalte durch Mitarbeiter notwendig ist. Insbesondere dort, wo Sicherheits- und Geschäftsrisiken bestehen, müssen Kontrollmechanismen eingebaut werden und menschliche Mitarbeiter die finalen Entscheidungen fällen.

„Mit den richtigen Maßnahmen können Unternehmen fehlerhafte und unerwünschte KI-Ausgaben verhindern. Ihre KI-Anwendungen liefern dann sehr genaue und ausgewogene Ergebnisse“, erklärt Jan Koch, AI Business Development Manager DACH bei Dell Technologies. „Zu einem verantwortungsvollen KI-Einsatz zählt aber auch, den Ausgaben nicht blind zu vertrauen und vor allem in sicherheits- und geschäftskritischen Bereichen einen Menschen hinzuzuziehen. Er kann neben seiner Erfahrung und seinem Fachwissen auch gesunden Menschenverstand einbringen, um die KI-Inhalte zu bewerten und bei Bedarf zu korrigieren.“
Be the first to comment