Fake News auf Facebook kaum zu enttarnen

Nur 44 Prozent der Nachrichten werden im Experiment korrekt als wahr oder unwahr erkannt. [...]

Facebook: Mehr Fake News vor der US-Wahl. (c) pixabay.com, LoboStudioHamburg

Die Unterscheidung von Fakten und gefälschten Nachrichten auf Facebook ist schwieriger als die meisten glauben. Vor allem bei politischen Meldungen, die im Zuge der bevorstehenden US-Präsidentschaftswahlen gerade rapide zulegen, tappen User gerne in die „Fake News“-Falle. Zu diesem Ergebnis kommen Forscher der University of Texas Austin (UTEXAS) im Zuge einer Studie mit Studenten. Nur 44 Prozent der Nachrichten wurden korrekt als wahr oder unwahr erkannt.

„Eine echte Herausforderung“

„Wir alle sind immer so überzeugt davon, dass wir besser darin sind, Fake News zu entlarven als die Durchschnittsperson. Doch das ist einfach nicht richtig“, so Patricia Moravec, Assistant Professor an der McCombs School of Business der UTEXAS. Gerade auf Facebook und Co, wo Nutzer legitime Nachrichten gemischt mit Tier-Memes, Familien-Updates und bezahlter Werbung serviert bekommen, könne die Unterscheidung „eine echte Herausforderung“ sein. „In einer Social-MediaUmgebung sind wir viel schlechtere Fakten-Checker als wir glauben“, betont die Wissenschaftlerin.

Eine Ursache hierfür liege in der Einstellung der User. „Wenn die Leute durch ihre Social-Media-Nachrichten scrollen, wollen sie in erster Linie entspannen und sind deshalb in einem eher passiven Gemütszustand“, erklärt Moravec. Dieser sei deutlich aktiver und zielgerichteter, wenn er oder sie sich bewusst Zeit nehme, um tägliche Nachrichten bei einer vertrauenswürdigen Quelle zu konsumieren. Um diesen Unterschied in der Einstellung auszugleichen, sollten Portal-Betreiber ihre User beim Aufdecken von Fake News besser unterstützen, fordert die Expertin: „Sie müssen die Leute finden, die Unwahrheiten auf ihren Seiten verbreiten und dürfen ihnen das nicht mehr ermöglichen.“

Schlechtes Facebook-Flaggensystem

Für ihre Studie haben die Forscher zunächst 80 Studenten zehn Fragen zu ihren politischen Ansichten beantworten lassen. Anschließend bekam jede Testperson ein EEG-Headset aufgesetzt, mit dem sich die Hirnaktivität messen lässt. Danach wurden ihnen 50 Nachrichtenmeldungen vorgesetzt, die sie auf ihren Wahrheitsgehalt hin beurteilen sollten. Einige davon wurden mit Flaggen markiert, um den Betrachter darauf hinzuweisen, dass es sich dabei womöglich um eine Falschmeldung handeln könnte.

Beim Abarbeiten des Experiments zeigten die Probanden deutlich mehr Aktivität in der vorderen Hirnregion, wenn Nachrichten ihren eigenen politischen Einstellungen entsprachen aber als Falschmeldung markiert waren. „Trotz dieser kognitiven Dissonanz wurden Meldungen, die die eigenen Ansichten widerspiegeln, öfter als echt wahrgenommen. Das zeigt, dass das Flaggensystem von Facebook nicht funktioniert und verbessert werden muss“, meint Moravec.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*