Fraunhofer arbeitet an Tool zur Fake-News-Abwehr

Ein Forscher-Team des Fraunhofer FKIE hat eine automatisierte Lösung entwickelt, die Social-Media-Daten auswertet und bewusst gestreute Fake News gezielt herausfiltert. [...]

Das Tool des Fraunhofer FKIE wertet zur Identifikation von Fake News sowohl Texte als auch Metadaten aus. (c) Fraunhofer
Auf Facebook, Twitter und Co. sind gezielte Falschmeldungen zur Stimmungsmache und Hetze gegen einzelne oder mehrere Personen leider immer noch an der Tagesordnung. Obwohl die Betreiber-Konzerne mit verschiedenen Programmen gegen den Missbrauch der Plattformen vorgehen, wurde bisher noch kein probates Mittel gegen die sogenannten Fake News gefunden.
Für Abhilfe will nun ein Forscher-Team des Fraunhofer FKIE (Institut für Kommunikation, Informationsverarbeitung und Ergonomie) sorgen. Die Wissenschaftler haben eine selbstlernende Software entwickelt, die eigenständig Social-Media-Einträge nach bewusst verbreiteten Falschmeldungen durchsucht. Dabei bewertet das System nicht nur die Texte allein, sondern bezieht auch Metadaten in die Analyse ein und bereitet die Ergebnisse grafisch auf.

DPA-Meldungen werden für Hetze missbraucht

«Mit unserer Software fokussieren wir uns auf Twitter und Webseiten. In den Tweets werden die Links veröffentlicht, unter denen die eigentlichen Fake News zu finden sind. Die sozialen Medien liefern sozusagen den Trigger. Die eigentlichen Falschmeldungen finden sich häufig auf Webseiten, die denen von Nachrichtenagenturen nachempfunden und nur schwer von den Originalen zu unterscheiden sind. Oftmals liegen ihnen DPA-Meldungen zugrunde, die sprachlich verändert wurden», erläutert Ulrich Schade, Wissenschaftler am Fraunhofer FKIE, dessen Forschungsgruppe das Tool entwickelt hat.
In einem ersten Schritt hat das Team seine Lösung mit Fake-News-Beispielen zur Klassifizierung trainiert. Die Beispiele kann die Software etwa anhand von gewisser sprachlicher Besonderheiten einordnen, die sich im üblichen Journalismus nicht finden. Hierzu zähle etwa die Formulieren «die aktuelle Bundeskanzlerin». Auch sprachliche oder orthografische Fehler deuten auf eine Falschmeldung hin.
«Füttern wir unser Tool mit vielen Merkmalen, so sucht sich das Verfahren selbstlernend diejenigen heraus, die funktionieren. Entscheidend ist auch, welche Machine-Learning-Verfahren dann die besten Ergebnisse liefern. Das ist sehr aufwändig, da man die diversen Algorithmen mit unterschiedlichen Kombinationen von Merkmalen durchrechnen lassen muss», so Schade.

Metadaten verraten Fake News

Falschmeldungen lassen sich auch anhand verschiedener Metadaten ausmachen. So spielt es etwa eine wesentliche Rolle, wann ein Social-Media-Post abgesetzt wurde, da die Uhrzeit auch Rückschlüsse auf die Zeitzone des Senders zulässt. Dahingegen deutet eine hohe Sendefrequenz auf automatisierte Bots hin. Auch die Vernetzung der Accounts untereinander und die Abonnenten können für die Untersuchung von grosser Bedeutung sein. Denn anhand der erfassten Daten lassen sich Heatmaps und Graphen erstellen, die die Vernetzung von Falschmeldungs-Kanälen visuell abbilden. Auf diese Weise verfolgen die Forscher, wie sich eine Fake-News-Kampagne im Netz ausbreitet.
Je nach Einsatzzweck ist die Lösung variable konfigurier- und klassifizierbar. Dadurch sei ein Einsatz sowohl in Unternehmen als auch in Behörden – etwa als Frühwarnsystem – möglich.

Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*