Wenn Künstliche Intelligenz "Doctor" übersetzt, wird meist ein "Arzt" daraus, während "Nurse" eine Krankenschwester ist. Auch darüber hinaus haben ChatGPT und Co. ihre Probleme mit gendergerechter und fairer Sprache. [...]
Künstliche Intelligenz kann viel – doch mit gendergerechter und fairer Sprache hat sie ihre Probleme. Wer versucht, ChatGPT davon zu überzeugen, inklusiv mit Gendersternchen zu schreiben, stößt schnell an Grenzen. Denn die KI neigt dazu, diese Vorgabe immer wieder zu vergessen.
Die österreichische Wissenschaftlerin Sabrina Burtscher sowie ihr Kollege und Landsmann Lukas Daniel Klausner erklären in der Futurezone aus Wien jetzt, woran das liegt.
KI hat Probleme mit der deutschen Sprache
Beim Trainingsmaterial für ChatGPT, so Burtscher, „handelt es sich um eine Unmenge an Daten, vor allem Texte aus dem Internet. Wenn es dabei um deutschsprachige Texte geht, ist der überwiegende Teil im Netz in nicht inklusiver Sprache geschrieben. Hinzu kommt, dass es nicht nur die eine Art gibt, inklusiv zu schreiben.“
Ergebnis, so die beiden Fachleute für genderfaire Sprache: Die KI ist regelrecht verwirrt von den Optionen. ChatGPT schreibt daher von Haus aus in dem Stil, den die Mehrheit der deutschsprachigen Nutzerinnen und Nutzer im Netz verwendet. Und dabei ist genderinklusive Sprache in der Minderheit.
„Doctor“ ist traditionell ein Arzt – und keine Ärztin
Einer Künstlichen Intelligenz gendergerechte Sprache beizubringen, ist daher eine überaus anspruchsvolle Aufgabe, so Klausner: „Es muss schon wirklich sehr hart daran gearbeitet werden, wenn jemand versucht, ChatGPT dazu zu bringen, ‚Doctor‘ mit Ärztin und ‚Nurse‘ mit Krankenpfleger zu übersetzen.“ Denn solche Begriffe sind in Übersetzungen traditionell männlich und weiblich geprägt.
Be the first to comment