Facebook: Algorithmus warnt bei Selbstmordgefahr

Wenn es darum geht, die eigenen Mitglieder vor einem möglichen Selbstmord abzuhalten, setzt Facebook ab sofort auch auf Unterstützung durch Künstliche Intelligenz (KI). Laut dem sozialen Online-Netzwerk durchforstet der intelligente Algorithmus alle Postings und Live-Video-Streams auf der Seite nach auffälligen Begriffen oder Kommentaren von Freunden, die die Vermutung nahelegen, dass jemand tatsächlich an Suizid denkt. Vorläufig ist das Tool aber nur in den USA im Einsatz. [...]

„Es gibt immer wieder Fälle, wo ich von Bekannten kontaktiert werde, weil jemand auf Facebook Anzeichen für einen bevorstehenden Selbstmord entdeckt hat und bei uns anfragt, wie er damit umgehen soll“, so Claudius Stein, Ärztlicher Leiter des Kriseninterventionszentrums Wien. Das sei ein Problem, mit dem generell alle Social-Media-Portale zu kämpfen haben. „Ein technisches Hilfsmittel einzusetzen, um rechtzeitig eindeutige Warnsignale zu erkennen, ist sicher sinnvoll. Als effektive Schutzmaßnahme gegen Suizid ist das aber natürlich zu wenig“, so Stein.
Laut Facebook stellt der Software-Check nur die erste Stufe im eigenen Maßnahmenkatalog dar. Wenn der Algorithmus Anzeichen für eine Selbstmordgefährdung findet, befasst sich ein Mitarbeiter des eigenen Review-Teams genauer mit dem Fall. Erst danach wird versucht, den Betroffenen zu kontaktieren. „Wie am besten vorzugehen ist, hängt immer von der Situation ab. Um das abzuschätzen, müssten die Facebook-Mitarbeiter eine umfassende psychologische Schulung erhalten. Wichtig ist, dass man so schnell wie möglich einschreiten kann, wenn wirklich Gefahr im Verzug ist“, betont der Experte.
14-jähriges Mädchen aus Miami
Dass das Thema Suizidprävention nicht auf die leichte Schulter genommen werden sollte, hat Facebook bereits vor langer Zeit akzeptieren müssen. Immer wieder sind im Laufe der vergangenen Jahre nämlich Fälle bekannt geworden, bei denen Mitglieder der Online-Community ihren Selbstmord über das Portal angekündigt oder teilweise sogar öffentlich inszeniert hatten. Erst im Januar hatte ein 14-jähriges Mädchen aus Miami seinem Leben ein tragisches Ende gesetzt und das Ganze per Live-Video-Stream dokumentiert.
„Unser Ziel ist es, in so einem Fall, den betreffenden Usern schon während der laufenden Übertragung zu helfen und nicht erst zu warten, bis jemand das vollständige Video kontrolliert hat“, zitiert „BBC News“ Facebook Product Manager Vanessa Callison-Burch. Das Vorgehen sei aber prinzipiell sehr heikel. „Einige meinen, wir sollten den Stream in einem derartigen Fall sofort stoppen. Andere Experten haben aber klargemacht, dass das auch nicht sinnvoll ist, weil es uns die Möglichkeit nimmt, die Hände auszustrecken und Hilfe anzubieten“, so Callison-Burch.

Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*