Künstliche Intelligenz: ChatGPT und die Folgen

Wie ein Sprachmodell die Kommunikation in Unternehmen verändert. Alles über die Stärken und auch Schwäschen von ChatGPT. [...]

Die Schwächen von ChatGPT

Beim Einsatz von ChatGPT sollten Unternehmen zumindest derzeit noch große Vorsicht walten lassen. Vor allem folgende drei Risiken können gefährlich werden, wenn die maschinell generierten Texte unkritisch und ohne Prüfung weiterverwendet werden:

1) Begrenzte Wissensbasis:

ChatGPT greift im Wesentlichen auf Informationen zu, die bis 2021 verfügbar waren. Fragt man das System etwa nach dem Angriff Russlands auf die Ukraine, erhält man folgende Antwort: „Russland hat im Jahr 2014 die Krim annektiert, was international als Verletzung des Völkerrechts angesehen wird. Kurz darauf begannen von Russland unterstützte Separatisten im Osten der Ukraine mit einem Aufstand gegen die ukrainische Regierung. Diese Ereignisse führten zu einem bewaffneten Konflikt zwischen der Ukraine und von Russland unterstützten Rebellen, der bis heute andauert.“

Anwender sollten daher bei aktuellen Themen auf jeden Fall immer auch andere Quellen berücksichtigen.

„Solange ich mich nicht korrekt auf Quellen beziehen und damit auch nicht deren Vertrauenswürdigkeit prüfen kann, stellt ChatGPT keine Gefahr für den Qualitätsjournalismus dar.“

Professor Ute Schmid – Leiterin der Arbeitsgruppe Kognitive Systeme, Fakultät Wirtschaftsinformatik und Angewandte Informatik an der Otto-Friedrich-Universität Bamberg

2) Der Wahrheitsgehalt der Antworten ist unklar:

„Es ist nicht sichergestellt, dass diese Modelle immer nur richtige Informationen produzieren“, betont Thilo Hagendorff, Post-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“ an der Eberhard Karls Universität Tübingen. „Sie können auch unsinnige Informationen produzieren, weil sie einfach kein Konzept davon haben, was Wahrheit und Falschheit ist.“

Open AI weist sogar selbst ausdrücklich darauf hin, dass den Antworten von ChatGPT nicht zu trauen ist: „Das System kann gelegentlich falsche oder irreführende Informationen und beleidigende oder tendenziöse Inhalte liefern. Es ist nicht dazu gedacht, Ratschläge zu erteilen“, heißt es auf der Webseite.

Janosch Kühn, Mitgründer des Entwicklerstudios Kolibri Games, erwischte ChatGPT etwa dabei, wie es Unwahrheiten über seine Firma verbreitete. Das System erfand einen „Janosch Zick“ als Gründer, hübschte die Lebensläufe der Beteiligten auf und gab ihnen Job-Titel, die sie nie hatten.

„Die Folgen eines lügenden ChatGPT-Modells sind gravierend. Sie untergraben das Vertrauen der Menschen in KI und können weitreichende Auswirkungen auf Unternehmen und Einzelpersonen haben“, schreibt Kühn auf Linkedin.

3) Quellen lassen sich meist nicht überprüfen:

Auch wenn die Antworten sinnvoll und hilfreich erscheinen, besteht häufig das Problem, dass ChatGPT seine Quellen nicht preisgibt. Das musste beispielsweise Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme, Fakultät Wirtschaftsinformatik und Angewandte Informatik an der Otto-Friedrich-Universität Bamberg, erfahren, als sie den Chatbot nach Ideen fragte, wie man mehr Frauen für das Informatikstudium begeistern könnte:

„Da kamen viele tolle Antworten, Vorschläge, die ich seit Jahren mache, aber auch durchaus neuere“, erklärt Schmid. Als sie allerdings nach den Quellen fragte, bekam sie keine befriedigende Antwort. „Solange ich mich nicht korrekt auf Quellen beziehen und damit auch nicht deren Vertrauenswürdigkeit prüfen kann, stellt ChatGPT keine Gefahr für den Qualitätsjournalismus dar“, unterstreicht Ute Schmid.

„Es ist nicht sichergestellt, dass diese Modelle immer nur richtige Informationen produzieren.“

Thilo Hagendorff – Post-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“, Eberhard Karls Universität Tübingen

Datenschutzverstöße und Geheimnisverrat

Wer ChatGPT in Marketing oder Kunden-Support einsetzt, hat noch ein weiteres Problem: Werden personenbezogene Informationen wie Name, Anschrift oder Telefonnummer eines Kunden, Geschäftspartners oder Mitarbeiters in die Dialogbox eingegeben, landen diese Daten auf den Servern von Open AI in den USA.

Laut Pierre Daniel Wittmann, Senior Associate bei der Luther Rechtsanwaltsgesellschaft und Host des Rechts-Podcasts „Recht.Einfach.Erklärt“ (https://open.spotify.com/show/3OX9YEpmArvFKNNYKZo1LI), kann ein Prompt, der personenbezogene Daten eines Betroffenen ohne dessen Einwilligung und ohne gesetzliche Erlaubnis enthält, bei einer Eingabe in ChatGPT einen Verstoß gegen die EU-Datenschutz-Grundverordnung begründen.

Daher sollten Unternehmen anhand des von ihnen bestimmten Einsatzzwecks von ChatGPT prüfen, wie sich ein datenschutzkonformer Einsatz von Chat-GPT umsetzen lässt. Hierzu kann je nach Anwendungsfall der Abschluss von datenschutzrechtlichen Vereinbarungen mit OpenAI zählen.

Besonders unangenehm könnte es werden, wenn die sensiblen persönlichen Daten plötzlich in den Antworten anderer Nutzer auftauchen. In seinen AGB behält sich Open AI nämlich vor, die eingegebenen Inhalte zur Weiterentwicklung seines Sprachmodells zu nutzen.

„Es kann damit nicht ausgeschlossen werden, dass von den Nutzern eingegebene personenbezogene Daten als Output bei einem anderen Nutzer von ChatGPT erscheinen“, erklärt Wittmann.

„ChatGPT stellt in der KI- Forschung keinen Durchbruch dar.“

Oliver Brock – Professor am Robotics and Biology Laboratory der TU Berlin

Ähnlich problematisch kann es werden, wenn Anwender ChatGPT nutzen, um beispielsweise Geschäftsberichte oder Business-Pläne zu erstellen. Werden dabei Betriebs- oder Geschäftsgeheimnisse als Input zur Verfügung gestellt, könnten diese bei der Konkurrenz landen.

„Unternehmen sollten daher ihre Mitarbeiter sensibilisieren, keine geschäftskritischen Informationen als Prompt gegenüber ChatGPT preiszugeben“, rät Wittmann.


Mehr Artikel

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*