Verantwortung in der KI: Herausforderungen in der Ära fortschrittlicher Modelle

Während die Technologie hinter generativen KI-Modellen täglich rasante Fortschritte macht, eröffnen sich für Nutzer ungeahnte Möglichkeiten bei der Erstellung und Bearbeitung von Texten. Doch mit großer Macht kommt auch große Verantwortung. Knar Hovakimyan, Responsible AI Lead und Engineering Manager bei Grammarly, beleuchtet die drängendsten Fragen rund um den Einsatz großer Sprachmodelle für die Texterstellung. [...]

Knar Hovakimyan, Responsible AI Lead und Engineering Manager bei Grammarly (c) Grammarly
Knar Hovakimyan, Responsible AI Lead und Engineering Manager bei Grammarly (c) Grammarly

Die Möglichkeiten der künstlichen Intelligenz zur Erstellung von Inhalten sind im letzten Jahr rasant gestiegen. Doch der Akt des Schreibens ist nach wie vor unglaublich persönlich. Wenn KI eingesetzt wird, um Menschen bei der Kommunikation zu helfen, ist es wichtig, die ursprüngliche Absicht einer Nachricht zu respektieren. Doch die jüngsten Innovationen – insbesondere im Bereich der generativen KI – haben die bestehenden Ansätze zur Bereitstellung verantwortungsvoller Schreibassistenz weit hinter sich gelassen.

Wenn über Sicherheit und Fairness im Zusammenhang mit KI-Schreibassistenten nachgedacht wird, konzentrieren sich Forscher und Branchenexperten in der Regel darauf, toxische Sprache wie abwertende oder obszöne Ausdrücke zu erkennen und zu verhindern, dass sie den Nutzern angezeigt wird. Dies ist ein wichtiger Schritt, um die Modelle sicherer zu machen und sicherzustellen, dass sie nicht die denkbar schlechtesten Inhalte produzieren. Dies allein reicht jedoch nicht aus, um ein Modell sicher zu machen. Was passiert, wenn ein Model Inhalte produziert, die an sich völlig harmlos sind, aber in bestimmten Kontexten anstößig werden? Ein Satz wie “Look on the bright side” auf Englisch („Sieh es positiv“) kann im Zusammenhang mit einer kleinen Unannehmlichkeit positiv sein, aber im Zusammenhang mit einem Krieg äußerst beleidigend.

Als KI-Entwickler reicht es nicht aus, toxische Sprache zu blockieren, um zu behaupten, dass das Modell sicher ist. Um wirklich verantwortungsvolle KI-Produkte anbieten zu können, muss man verstehen, wie die Modelle funktionieren, welche Schwachstellen sie haben und in welchen Kontexten sie eingesetzt werden könnten. Kontrollen müssen zudem eingeführt werden, um schädliche Interaktionen zwischen KI-Systemen und Nutzern zu verhindern.

Das Problem und seine Bedeutung

Laut einer Forrester-Studie verwenden 70 Prozent der Erwerbstätigen generative KI für die meisten oder alle ihre Schreib- und Textbearbeitungsaufgaben. Mit diesem Anstieg der Nutzung generativer KI-Tools interagieren mehr Inhalte als je zuvor regelmäßig mit KI, maschinellem Lernen (ML) und großen Sprachmodellen (LLMs). KI macht bekanntlich Fehler. Laut einer Studie kontrollieren 67 Prozent der Erwerbstätigen, die textbasierte generative KI schon beruflich genutzt haben, die Resultate auf Korrektheit. 66 Prozent glauben, dass generative KI falsche Ergebnisse erzeugen kann (www.bidt.digital/publikation/verbreitung-und-akzeptanz-generativer-ki-in-deutschland-und-an-deutschen-arbeitsplaetzen). Wenn ein KI-Modell einen Vorschlag macht, der die Bedeutung eines Satzes verändert, ist das in der Regel ein harmloser Fehler und kann abgelehnt werden. Dies wird jedoch umso komplizierter, je weiter die Technologie voranschreitet und je mehr Entwickler sich auf LLMs verlassen. Wenn zum Beispiel ein LLM zu politischer Voreingenommenheit neigt, könnte es unverantwortlich sein, es politische Berichte erstellen zu lassen. Wenn die Tendenz zu Fehlinformationen und Halluzinationen besteht, kann es gefährlich und unethisch sein, es medizinische Ratschläge und Diagnosen generieren zu lassen. Diese unangemessenen Ergebnisse können also nicht nur harmlose Fehler sein, sondern weit schlimmer ausfallen und somit tiefgreifendere Folgen haben. 

Ein Weg in die Zukunft

Die Branche muss neue Taktiken für Sicherheitsbemühungen entwickeln, um mit den Fähigkeiten – und Schwächen – der neuesten KI-Modelle Schritt zu halten. 

Einige Beispiele oben verdeutlichen, dass das Blockieren toxischer Sprache meist nicht ausreicht, um gefährliche Interaktionen zwischen KI-Systemen und Nutzern im heutigen Ökosystem zu verhindern. Erforscht man die Funktionsweise und Schwächen der Modelle und die Kontexte, in denen sie eingesetzt werden, kann man verantwortungsvolle Unterstützung für bereits genannte und weitere Fallbeispiele liefern: 

  1. Ein generativer KI-Schreibassistent kann eine Zusammenfassung einer medizinischen Diagnose erstellen. In einer Situation, in der viel auf dem Spiel steht, besteht jedoch ein großes Risiko, dass irreführende oder aus dem Zusammenhang gerissene Informationen eingefügt werden. Durch die Verwendung des richtigen ML-Modells als Leitplanke kann verhindert werden, dass das LLM ungenaue Informationen liefert.
  2. Politische Meinungen sind nuanciert, sodass der Vorschlag oder die Ausgabe eines KI-Produkts leicht die Integrität eines Punktes fehldeuten kann, da es die Absicht oder den Kontext nicht versteht. Ein sorgfältig ausgearbeitetes Modell kann ein LLM davon abhalten, sich mit einigen politischen Themen zu befassen, bei denen die Gefahr von Fehlinformationen oder Voreingenommenheit besteht. 
  3. Soll im Trauerfall eine Beileidsbekundung für einen Kollegen verfasst werden, kann ein Modell verhindern, dass ein KI-Schreibassistent einen unpassenden Vorschlag macht, der “positiv” klingt.

Schutzmechanismen erkennen „Sprach-Erdbeben“ durch Kontext

Ein Beispiel für einen solchen Schutz-Mechanismus, ist Seismograph. Es ist das erste System seiner Art, das auf große Sprachmodelle und proprietäre maschinelle Lernmodelle aufgesetzt werden kann, um heikle Ausgaben zu reduzieren: ähnlich wie ein „Seismograf“ Erdbebenwellen misst, erkennt und misst die Seismograph-Technologie, wie sensibel ein Text ist, sodass die Modelle rechtzeitig angemessen eingreifen können, um die negativen Auswirkungen auf Nutzende zu minimieren. Die Entwicklung von Seismograph ist nur ein Beispiel dafür, wie ein hybrider Ansatz, bei dem LLM, ML und KI-Modelle zusammenarbeiten, zu vertrauenswürdigeren und zuverlässigeren KI-Produkten führt. Durch die Verringerung der Wahrscheinlichkeit, dass KI unerwünschte Inhalte ohne angemessenen Kontext liefert, kann die Branche KI-Schreibassistenz aus einer Position der Empathie und Verantwortung heraus anbieten.

Die Zukunft der verantwortungsvollen KI

Als sich KI-Kommunikationswerkzeuge in erster Linie auf die grundlegenden Mechanismen des Schreibens beschränkten, war der potenzielle Schaden, den ein Schreibvorschlag anrichten konnte, unabhängig vom Kontext minimal. Mit dem Fortschreiten der Technologie und dem zunehmenden Einsatz von KI bei komplexeren Schreibaufgaben, bei denen der Kontext eine Rolle spielt, wächst auch die Verantwortung solcher KI-Anbieter, dafür zu sorgen, dass ihre Lösungen keine unbeabsichtigten Folgen haben. Produktentwickler können diese drei Grundsätze befolgen, um sich selbst zur Verantwortung zu ziehen: 

  1. Die Suche nach Schwachstellen im Produkt durch Red Teaming, Bias- und Fairness-Evaluierungen sowie andere Drucktests können Schwachstellen aufdecken, bevor sie sich erheblich auf Kundinnen und Kunden auswirken. 
  2. Die Ermittlung branchenweiter Lösungen macht die Entwicklung verantwortungsvoller KI einfacher und zugänglicher. Die Entwicklung in verantwortungsvollen Ansätzen hilft, die Qualität der Produkte zu verbessern und das Vertrauen der Verbraucher in die KI-Technologie zu stärken.
  3. Die Einbindung von Teams für „Responsible AI“ in die gesamte Produktentwicklung ist wichtig, denn wenn niemand ausdrücklich dafür verantwortlich ist, dass die Modelle sicher sind, geht das schnell unter. Unternehmen müssen diesen Teams entsprechend Priorität einräumen und sie befähigen, eine zentrale Rolle bei der Entwicklung neuer und der Pflege bestehender Funktionen zu spielen.

Diese Grundsätze leiten so beispielsweise die Arbeit von Grammarly und bilden die Grundlage für das Engagement bei der Entwicklung öffentlich zugänglicher Modelle wie Seismograph. Auf diese Weise zeigt das Unternehmen, dass die Branche den Risiken voraus ist und den Menschen komplexere Vorschläge und generierte Ergebnisse bieten kann – ohne Schaden anzurichten.

*Knar Hovakimyan leitet das Responsible AI Team von Grammarly, das sich auf die Entwicklung und Verbesserung von KI-Systemen fokussiert, die Vorurteile (Bias) abbauen und Fairness fördern.  



Mehr Artikel

News

TechnoVision: Die 5 wichtigsten Technologietrends im Jahr 2025

Mit den „TechnoVision Top 5 Tech Trends to Watch in 2025“ stellt Capgemini fünf Schlüsseltechnologien vor, die im kommenden Jahr einen neuen Reifegrad erreichen werden. Der Fokus auf KI und generative KI wird dabei sowohl von Führungskräften auf der ganzen Welt als auch von Risikokapitalgebern geteilt, wie Vorabergebnisse einer Umfrage zeigen, die auf der CES im Januar 2025 veröffentlicht werden soll. […]

News

Supply Chain 2025: Die wichtigsten Trends im Überblick

Eine resiliente Lieferkette steht für die meisten Unternehmen an oberster Stelle. Risikominimierung, Verbesserung nachhaltiger Praktiken, schlanker Betrieb, schnelle Reaktion auf Kundenbedürfnisse und Verbesserung der Termintreue bei überschaubaren Kosten sind dabei Faktoren, die immer mehr an Bedeutung gewinnen. […]

News

Die Top 5 HR-Trends im kommenden Jahr

KI und Automatisierung verändern die Arbeitswelt. Die Zukunft des Personalwesens sichern heißt, mehr als die reine Digitalisierung voranzutreiben und auch menschliches Potenzial zu maximieren, Mitarbeitererfahrung zu verbessern und Unternehmenserfolg zu steigern. Ein hybrider KI-Ansatz verliert den Menschen nicht aus dem Auge: Er kombiniert technologische Effizienz mit menschlicher Anpassungsfähigkeit, Kreativität und kritischem Denken. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*