Wie ein Sprachmodell die Kommunikation in Unternehmen verändert. Alles über die Stärken und auch Schwäschen von ChatGPT. [...]
Die Schwächen von ChatGPT
Beim Einsatz von ChatGPT sollten Unternehmen zumindest derzeit noch große Vorsicht walten lassen. Vor allem folgende drei Risiken können gefährlich werden, wenn die maschinell generierten Texte unkritisch und ohne Prüfung weiterverwendet werden:
1) Begrenzte Wissensbasis:
ChatGPT greift im Wesentlichen auf Informationen zu, die bis 2021 verfügbar waren. Fragt man das System etwa nach dem Angriff Russlands auf die Ukraine, erhält man folgende Antwort: „Russland hat im Jahr 2014 die Krim annektiert, was international als Verletzung des Völkerrechts angesehen wird. Kurz darauf begannen von Russland unterstützte Separatisten im Osten der Ukraine mit einem Aufstand gegen die ukrainische Regierung. Diese Ereignisse führten zu einem bewaffneten Konflikt zwischen der Ukraine und von Russland unterstützten Rebellen, der bis heute andauert.“
Anwender sollten daher bei aktuellen Themen auf jeden Fall immer auch andere Quellen berücksichtigen.
„Solange ich mich nicht korrekt auf Quellen beziehen und damit auch nicht deren Vertrauenswürdigkeit prüfen kann, stellt ChatGPT keine Gefahr für den Qualitätsjournalismus dar.“
Professor Ute Schmid – Leiterin der Arbeitsgruppe Kognitive Systeme, Fakultät Wirtschaftsinformatik und Angewandte Informatik an der Otto-Friedrich-Universität Bamberg
2) Der Wahrheitsgehalt der Antworten ist unklar:
„Es ist nicht sichergestellt, dass diese Modelle immer nur richtige Informationen produzieren“, betont Thilo Hagendorff, Post-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“ an der Eberhard Karls Universität Tübingen. „Sie können auch unsinnige Informationen produzieren, weil sie einfach kein Konzept davon haben, was Wahrheit und Falschheit ist.“
Open AI weist sogar selbst ausdrücklich darauf hin, dass den Antworten von ChatGPT nicht zu trauen ist: „Das System kann gelegentlich falsche oder irreführende Informationen und beleidigende oder tendenziöse Inhalte liefern. Es ist nicht dazu gedacht, Ratschläge zu erteilen“, heißt es auf der Webseite.
Janosch Kühn, Mitgründer des Entwicklerstudios Kolibri Games, erwischte ChatGPT etwa dabei, wie es Unwahrheiten über seine Firma verbreitete. Das System erfand einen „Janosch Zick“ als Gründer, hübschte die Lebensläufe der Beteiligten auf und gab ihnen Job-Titel, die sie nie hatten.
„Die Folgen eines lügenden ChatGPT-Modells sind gravierend. Sie untergraben das Vertrauen der Menschen in KI und können weitreichende Auswirkungen auf Unternehmen und Einzelpersonen haben“, schreibt Kühn auf Linkedin.
3) Quellen lassen sich meist nicht überprüfen:
Auch wenn die Antworten sinnvoll und hilfreich erscheinen, besteht häufig das Problem, dass ChatGPT seine Quellen nicht preisgibt. Das musste beispielsweise Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme, Fakultät Wirtschaftsinformatik und Angewandte Informatik an der Otto-Friedrich-Universität Bamberg, erfahren, als sie den Chatbot nach Ideen fragte, wie man mehr Frauen für das Informatikstudium begeistern könnte:
„Da kamen viele tolle Antworten, Vorschläge, die ich seit Jahren mache, aber auch durchaus neuere“, erklärt Schmid. Als sie allerdings nach den Quellen fragte, bekam sie keine befriedigende Antwort. „Solange ich mich nicht korrekt auf Quellen beziehen und damit auch nicht deren Vertrauenswürdigkeit prüfen kann, stellt ChatGPT keine Gefahr für den Qualitätsjournalismus dar“, unterstreicht Ute Schmid.
„Es ist nicht sichergestellt, dass diese Modelle immer nur richtige Informationen produzieren.“
Thilo Hagendorff – Post-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“, Eberhard Karls Universität Tübingen
Datenschutzverstöße und Geheimnisverrat
Wer ChatGPT in Marketing oder Kunden-Support einsetzt, hat noch ein weiteres Problem: Werden personenbezogene Informationen wie Name, Anschrift oder Telefonnummer eines Kunden, Geschäftspartners oder Mitarbeiters in die Dialogbox eingegeben, landen diese Daten auf den Servern von Open AI in den USA.
Laut Pierre Daniel Wittmann, Senior Associate bei der Luther Rechtsanwaltsgesellschaft und Host des Rechts-Podcasts „Recht.Einfach.Erklärt“ (https://open.spotify.com/show/3OX9YEpmArvFKNNYKZo1LI), kann ein Prompt, der personenbezogene Daten eines Betroffenen ohne dessen Einwilligung und ohne gesetzliche Erlaubnis enthält, bei einer Eingabe in ChatGPT einen Verstoß gegen die EU-Datenschutz-Grundverordnung begründen.
Daher sollten Unternehmen anhand des von ihnen bestimmten Einsatzzwecks von ChatGPT prüfen, wie sich ein datenschutzkonformer Einsatz von Chat-GPT umsetzen lässt. Hierzu kann je nach Anwendungsfall der Abschluss von datenschutzrechtlichen Vereinbarungen mit OpenAI zählen.
Besonders unangenehm könnte es werden, wenn die sensiblen persönlichen Daten plötzlich in den Antworten anderer Nutzer auftauchen. In seinen AGB behält sich Open AI nämlich vor, die eingegebenen Inhalte zur Weiterentwicklung seines Sprachmodells zu nutzen.
„Es kann damit nicht ausgeschlossen werden, dass von den Nutzern eingegebene personenbezogene Daten als Output bei einem anderen Nutzer von ChatGPT erscheinen“, erklärt Wittmann.
„ChatGPT stellt in der KI- Forschung keinen Durchbruch dar.“
Oliver Brock – Professor am Robotics and Biology Laboratory der TU Berlin
Ähnlich problematisch kann es werden, wenn Anwender ChatGPT nutzen, um beispielsweise Geschäftsberichte oder Business-Pläne zu erstellen. Werden dabei Betriebs- oder Geschäftsgeheimnisse als Input zur Verfügung gestellt, könnten diese bei der Konkurrenz landen.
„Unternehmen sollten daher ihre Mitarbeiter sensibilisieren, keine geschäftskritischen Informationen als Prompt gegenüber ChatGPT preiszugeben“, rät Wittmann.
Be the first to comment