PTBS: Facebook zahlt Moderatoren 52 Mio. Dollar

Eingereichte Klage geschädigter Content-Prüfer durch verstörende Inhalte erfolgreich. [...]

PTBS: Facebook entschädigt Moderatoren. (c) pixabay.com, StockSnap

Der US-Social-Media-Gigant Facebook zahlt 52 Mio. Dollar (etwa 48 Mio. Euro) als Entschädigung an seine momentanen und früheren Moderatoren, die während ihrer Arbeit psychologische Traumata erlitten haben. Die Moderatoren sind dafür verantwortlich, verstörende Inhalte zu prüfen und von der Plattform zu entfernen. Mehrere Angestellte in diesem Bereich haben Facebook verklagt, weil diese Tätigkeit bei ihnen eine Posttraumatische Belastungsstörung (PTBS) auslöste.

„Real und schwerwiegend“

„Wir sind sehr erfreut darüber, dass Facebook mit uns zusammenarbeitet und ein beispielloses Hilfsprogramm für diese Angestellten startet. Die Arbeit, die diese Mitarbeiter leisten, war selbst vor wenigen Jahren noch unvorstellbar. Der Schaden, den diese Tätigkeit anrichtet, ist real und kann sehr schwerwiegend sein“, zitiert „The Verge“ Steve Williams, einen Anwalt der Kläger.

Facebook hat sich vor dem Obersten Gericht in San Mateo  bereit erklärt, jedem Prüfer mindestens 1.000 Dollar auszuzahlen. Abhängig von der Schwere der Diagnose können die Betroffenden auch mehr erhalten. Betroffen sind 11.250 ehemalige und amtierende Moderatoren. Darüber hinaus wird Facebook den noch tätigen Angestellten während ihrer Arbeit mehr psychologischen Beistand durch Beratung und Therapie anbieten.

Neue Tools für Moderatoren

Nach der US-Präsidentschaftswahl 2016 musste Facebook viel Kritik dafür einstecken, dass verstörende Inhalte wie Darstellungen von Gewalt auf der Plattform während des Wahlkampfs zu wenig kontrolliert wurden. Deswegen heuerte das Unternehmen eine Reihe von Angestellten an, deren Aufgabe es ist, nach solchen Inhalten zu suchen und sie gegebenenfalls zu entfernen.

Viele dieser Kontrolleure haben bei der Arbeit PTBS erlitten. Ehemalige Angestellte aus vier US-Bundesstaaten haben im Jahr 2018 schließlich eine Klage eingericht, weil Facebook sie nicht ausreichend vor den psychologischen Folgen ihrer Tätigkeit geschützt hatte. Der Social-Media-Konzern hat sich mit den Klägern jetzt geeinigt und will seinen momentanen Mitarbeitern mit neuen Tools künftig die Arbeit erleichtern. So soll bei Inhalten automatisch die Audio-Tonspur ausgeschaltet werden, zudem werden diese in schwarz-weiß gezeigt, um den verstörenden Effekt zu mildern.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*