Facebook: Algorithmus warnt bei Selbstmordgefahr

Wenn es darum geht, die eigenen Mitglieder vor einem möglichen Selbstmord abzuhalten, setzt Facebook ab sofort auch auf Unterstützung durch Künstliche Intelligenz (KI). Laut dem sozialen Online-Netzwerk durchforstet der intelligente Algorithmus alle Postings und Live-Video-Streams auf der Seite nach auffälligen Begriffen oder Kommentaren von Freunden, die die Vermutung nahelegen, dass jemand tatsächlich an Suizid denkt. Vorläufig ist das Tool aber nur in den USA im Einsatz. [...]

„Es gibt immer wieder Fälle, wo ich von Bekannten kontaktiert werde, weil jemand auf Facebook Anzeichen für einen bevorstehenden Selbstmord entdeckt hat und bei uns anfragt, wie er damit umgehen soll“, so Claudius Stein, Ärztlicher Leiter des Kriseninterventionszentrums Wien. Das sei ein Problem, mit dem generell alle Social-Media-Portale zu kämpfen haben. „Ein technisches Hilfsmittel einzusetzen, um rechtzeitig eindeutige Warnsignale zu erkennen, ist sicher sinnvoll. Als effektive Schutzmaßnahme gegen Suizid ist das aber natürlich zu wenig“, so Stein.
Laut Facebook stellt der Software-Check nur die erste Stufe im eigenen Maßnahmenkatalog dar. Wenn der Algorithmus Anzeichen für eine Selbstmordgefährdung findet, befasst sich ein Mitarbeiter des eigenen Review-Teams genauer mit dem Fall. Erst danach wird versucht, den Betroffenen zu kontaktieren. „Wie am besten vorzugehen ist, hängt immer von der Situation ab. Um das abzuschätzen, müssten die Facebook-Mitarbeiter eine umfassende psychologische Schulung erhalten. Wichtig ist, dass man so schnell wie möglich einschreiten kann, wenn wirklich Gefahr im Verzug ist“, betont der Experte.
14-jähriges Mädchen aus Miami
Dass das Thema Suizidprävention nicht auf die leichte Schulter genommen werden sollte, hat Facebook bereits vor langer Zeit akzeptieren müssen. Immer wieder sind im Laufe der vergangenen Jahre nämlich Fälle bekannt geworden, bei denen Mitglieder der Online-Community ihren Selbstmord über das Portal angekündigt oder teilweise sogar öffentlich inszeniert hatten. Erst im Januar hatte ein 14-jähriges Mädchen aus Miami seinem Leben ein tragisches Ende gesetzt und das Ganze per Live-Video-Stream dokumentiert.
„Unser Ziel ist es, in so einem Fall, den betreffenden Usern schon während der laufenden Übertragung zu helfen und nicht erst zu warten, bis jemand das vollständige Video kontrolliert hat“, zitiert „BBC News“ Facebook Product Manager Vanessa Callison-Burch. Das Vorgehen sei aber prinzipiell sehr heikel. „Einige meinen, wir sollten den Stream in einem derartigen Fall sofort stoppen. Andere Experten haben aber klargemacht, dass das auch nicht sinnvoll ist, weil es uns die Möglichkeit nimmt, die Hände auszustrecken und Hilfe anzubieten“, so Callison-Burch.

Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*