Fake News auf Facebook kaum zu enttarnen

Nur 44 Prozent der Nachrichten werden im Experiment korrekt als wahr oder unwahr erkannt. [...]

Facebook: Mehr Fake News vor der US-Wahl. (c) pixabay.com, LoboStudioHamburg

Die Unterscheidung von Fakten und gefälschten Nachrichten auf Facebook ist schwieriger als die meisten glauben. Vor allem bei politischen Meldungen, die im Zuge der bevorstehenden US-Präsidentschaftswahlen gerade rapide zulegen, tappen User gerne in die „Fake News“-Falle. Zu diesem Ergebnis kommen Forscher der University of Texas Austin (UTEXAS) im Zuge einer Studie mit Studenten. Nur 44 Prozent der Nachrichten wurden korrekt als wahr oder unwahr erkannt.

„Eine echte Herausforderung“

„Wir alle sind immer so überzeugt davon, dass wir besser darin sind, Fake News zu entlarven als die Durchschnittsperson. Doch das ist einfach nicht richtig“, so Patricia Moravec, Assistant Professor an der McCombs School of Business der UTEXAS. Gerade auf Facebook und Co, wo Nutzer legitime Nachrichten gemischt mit Tier-Memes, Familien-Updates und bezahlter Werbung serviert bekommen, könne die Unterscheidung „eine echte Herausforderung“ sein. „In einer Social-MediaUmgebung sind wir viel schlechtere Fakten-Checker als wir glauben“, betont die Wissenschaftlerin.

Eine Ursache hierfür liege in der Einstellung der User. „Wenn die Leute durch ihre Social-Media-Nachrichten scrollen, wollen sie in erster Linie entspannen und sind deshalb in einem eher passiven Gemütszustand“, erklärt Moravec. Dieser sei deutlich aktiver und zielgerichteter, wenn er oder sie sich bewusst Zeit nehme, um tägliche Nachrichten bei einer vertrauenswürdigen Quelle zu konsumieren. Um diesen Unterschied in der Einstellung auszugleichen, sollten Portal-Betreiber ihre User beim Aufdecken von Fake News besser unterstützen, fordert die Expertin: „Sie müssen die Leute finden, die Unwahrheiten auf ihren Seiten verbreiten und dürfen ihnen das nicht mehr ermöglichen.“

Schlechtes Facebook-Flaggensystem

Für ihre Studie haben die Forscher zunächst 80 Studenten zehn Fragen zu ihren politischen Ansichten beantworten lassen. Anschließend bekam jede Testperson ein EEG-Headset aufgesetzt, mit dem sich die Hirnaktivität messen lässt. Danach wurden ihnen 50 Nachrichtenmeldungen vorgesetzt, die sie auf ihren Wahrheitsgehalt hin beurteilen sollten. Einige davon wurden mit Flaggen markiert, um den Betrachter darauf hinzuweisen, dass es sich dabei womöglich um eine Falschmeldung handeln könnte.

Beim Abarbeiten des Experiments zeigten die Probanden deutlich mehr Aktivität in der vorderen Hirnregion, wenn Nachrichten ihren eigenen politischen Einstellungen entsprachen aber als Falschmeldung markiert waren. „Trotz dieser kognitiven Dissonanz wurden Meldungen, die die eigenen Ansichten widerspiegeln, öfter als echt wahrgenommen. Das zeigt, dass das Flaggensystem von Facebook nicht funktioniert und verbessert werden muss“, meint Moravec.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*