"Tay" heißt ein neuer, auf Künstlicher Intelligenz basierender Chat-Bot, den Softwareriese Microsoft zusammen mit dem hauseigenem Bing-Team entwickelt hat. Was gut begonnen hat, wurde jedoch durch Trolle aus dem Internet zu einer unschönen Sache. [...]
Auf dem Weg zur Erforschung der dialogorientierten Verständigung wurde Tay gezielt für Personen zwischen 18 und 24 Jahren entworfen. Denn diese sind laut dem Konzern die „dominanten Nutzer von mobilen sozialen Chat-Diensten in den USA“.
Der neue Chat-Bot aus Redmond verwendet als wichtigste Informationsquelle anonymisiertes öffentliches Datenmaterial. „Tay nutzt möglicherweise Daten, die Sie durch eine Suche liefern“, heißt es auf der Website des Projekts. „Tay verwendet eventuell auch Daten, die Sie mit ihr teilen, um ein einfaches Profil anzulegen und ihre Nutzererfahrung zu personalisieren.“
Alle Daten werden bis zu einem Jahr vorgehalten, um Tay zu verbessern. Neben dem Namen und dem Geschlecht werden auch Lieblingsessen, Postleitzahl und Beziehungsstatus in einem Profil erfasst. Wer Angst um seine Daten hat, kann sein Profil über das Kontaktformular auf der Tay-Seite auch wieder löschen lassen. Das System soll eigenständig lernfähig sein. „Je mehr Sie mit Tay chatten, desto klüger wird sie“, heißt es vonseiten des Projektteams. Derzeit ist Tay auf Twitter, Snapchat, Facebook und Instagram mit eigenen Profilen vertreten.
Derzeit ist Tay jedoch nicht zu sprechen. Sie sei müde von den vielen Konversationen und müsse schlafen, steht im Twitterprofil der fiktiven Person zu lesen. Wie sich später herausgestellt hat, gab es dafür einen triftigen Grund: Mittels gezielten Tweets und Fragen wurde Tay so beeinflusst, antisemitische und hasserfüllte Antworten zu schreiben und Tweets abzusetzen – die weit über der Schmerzgrenze lafen. Die Boshaftigkeit einiger Mitglieder der Internetgemeinde hat Microsoft wohl unterschätzt. Manche Nutzer sahen darin ein Mahnmal für die Beeinflussbarkeit von künstlichen Intelligenzen. (pte/rnf)
Be the first to comment