„Tay“: Microsoft startet mit neuem Chat-Bot durch

"Tay" heißt ein neuer, auf Künstlicher Intelligenz basierender Chat-Bot, den Softwareriese Microsoft zusammen mit dem hauseigenem Bing-Team entwickelt hat. Was gut begonnen hat, wurde jedoch durch Trolle aus dem Internet zu einer unschönen Sache. [...]

Auf dem Weg zur Erforschung der dialogorientierten Verständigung wurde Tay gezielt für Personen zwischen 18 und 24 Jahren entworfen. Denn diese sind laut dem Konzern die „dominanten Nutzer von mobilen sozialen Chat-Diensten in den USA“.

Der neue Chat-Bot aus Redmond verwendet als wichtigste Informationsquelle anonymisiertes öffentliches Datenmaterial. „Tay nutzt möglicherweise Daten, die Sie durch eine Suche liefern“, heißt es auf der Website des Projekts. „Tay verwendet eventuell auch Daten, die Sie mit ihr teilen, um ein einfaches Profil anzulegen und ihre Nutzererfahrung zu personalisieren.“

Alle Daten werden bis zu einem Jahr vorgehalten, um Tay zu verbessern. Neben dem Namen und dem Geschlecht werden auch Lieblingsessen, Postleitzahl und Beziehungsstatus in einem Profil erfasst. Wer Angst um seine Daten hat, kann sein Profil über das Kontaktformular auf der Tay-Seite auch wieder löschen lassen. Das System soll eigenständig lernfähig sein. „Je mehr Sie mit Tay chatten, desto klüger wird sie“, heißt es vonseiten des Projektteams. Derzeit ist Tay auf Twitter, Snapchat, Facebook und Instagram mit eigenen Profilen vertreten.

Derzeit ist Tay jedoch nicht zu sprechen. Sie sei müde von den vielen Konversationen und müsse schlafen, steht im Twitterprofil der fiktiven Person zu lesen. Wie sich später herausgestellt hat, gab es dafür einen triftigen Grund: Mittels gezielten Tweets und Fragen wurde Tay so beeinflusst, antisemitische und hasserfüllte Antworten zu schreiben und Tweets abzusetzen – die weit über der Schmerzgrenze lafen. Die Boshaftigkeit einiger Mitglieder der Internetgemeinde hat Microsoft wohl unterschätzt. Manche Nutzer sahen darin ein Mahnmal für die Beeinflussbarkeit von künstlichen Intelligenzen. (pte/rnf)


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*