Lügendetektor für Social Media

Ein neues EU-Forschungsprojekt der MODUL University Vienna will die Vertrauenswürdigkeit von viral verbreiteter Information in Social Media beurteilen. [...]

Barack Obama ist gar nicht in den USA geboren! Oder doch? Soziale Netzwerke sind voll mit Lug und Trug, Halbwahrheiten und Fakten. Doch egal ob Fakt oder Fake – die rasche Verbreitung von solchen Themen kann blitzschnell enorme Konsequenzen nach sich ziehen. Schnelles Analysieren von Inhalten ist gefragt – aber derzeit nicht systematisch möglich. Genau diese Problematik adressiert das EU-Projekt „Pheme“ der MODUL University Vienna sowie dreier Partnern aus England und weiteren aus Deutschland, der Schweiz, Bulgarien, Spanien sowie Kenia.

Zur Aktualität des Projekts, das auf umfassenden Kompetenzen zur Analyse digitaler Informationen an der MODUL University Vienna aufbaut, meint der Leiter des Instituts für Neue Medientechnologie, Arno Scharl: „Traditionelle Medien – ob digital oder analog – verlieren derzeit ihre Informationshoheit. Social Media-NutzerInnen übernehmen diese immer mehr und verbreiten Informationen in ungeahnter Geschwindigkeit. Da wird aus einer Mücke rasch auch mal ein Elefant – oder aus einem Nieser die Angst vor einer globalen Pandemie.“ Solche als „Meme“ bezeichneten Themen, die sich viral in Netzwerken verbreiten, stellen Regierungen und Unternehmen zunehmend vor große Herausforderungen. Um diesen zu begegnen, darf im Einzelfall wenig Zeit verloren werden – Zeit, die das Projekt Pheme zukünftig schaffen soll.

Die Herausforderungen für das Team um Arno Scharl sind dabei vielfältig – doch dank spezifischer Expertise und umfassender Vorarbeiten im Rahmen der webLyzard Web Intelligence Plattform sieht sich die MODUL University Vienna für deren Lösung prädestiniert. Dazu Scharl: „Für die Computer-basierte Analyse von Informationen in sozialen Medien stellen deren enormes Volumen, Vielfalt und rasche Verbreitungsgeschwindigkeit – die drei ‚Vs‘ – enorme Hürden dar. Doch haben wir diese Aspekte zumindest konzeptionell im Griff. Im neuen Projekt nehmen wir das vierte ‚V‘ in Angriff: die Vertrauenswürdigkeit der Information.“

Dabei konzentriert sich das Team auf die Identifikation von vier Arten von fragwürdigen Wahrheiten oder sogenannten „Gerüchten“: die Spekulation, die Kontroverse, die Missinformation und die Desinformation. Doch zu beurteilen, ob eine Information in eine dieser Kategorien fällt, ist gerade in Social Media ausgesprochen schwer. Denn hier hängt die Qualität der Information sehr stark von deren sozialem Kontext ab. Diesen Kontext automatisiert zu erfassen und zu interpretieren, ist bisher noch nicht gelungen. Das internationale Team setzt dafür nun auf einen interdisziplinären Ansatz.

INTERDISZIPLINÄRE NETZWERKFORSCHUNG

So arbeiten Wissenschaftler in Sprachtechnologien, Web Science und der Analyse sozialer Netzwerke zusammen mit Experten für Informations-Visualisierung. Gemeinsam nutzen sie drei Aspekte zur Analyse der Vertrauenswürdigkeit: zunächst die einem Dokument eigene Information – also lexikalische, semantische und syntaktische Information. Diese wird vernetzt mit Datenquellen, die als besonders vertrauenswürdig gelten. Für medizinische Informationen also zum Beispiel PubMed, die weltgrößte Online-Datenbank für medizinische Originalpublikationen. Schließlich wird die Art der Verbreitung einer Information analysiert – wer erhält welche Information, und wie und wann wird diese an wen weitergesendet?

Die Ergebnisse des über drei Jahre laufenden Projekts werden in zwei konkreten Fallstudien getestet. So wird im Bereich medizinischer Informationssysteme unter anderem „Rumour Intelligence“ getestet – also die Fähigkeit, Gerüchte wie den Ausbruch einer hoch ansteckenden Erkrankung (z. B. Schweinegrippe) und deren Verbreitung frühzeitig zu identifizieren. Für den digitalen Journalismus wiederum werden zusammen mit BBC und dem Südwestrundfunk Ergebnisse getestet, die es erlauben, die Glaubwürdigkeit User-generierten Contents zu verifizieren. Eine Tätigkeit, die bisher weitestgehend „händisch“ und unter hohem Ressourcenaufwand erfolgt.

Der hohe Vernetzungsgrad des Projekts von sieben Nationen und mehreren Wissenschafts-Disziplinen überzeugte auch die Evaluatoren der EU, die es zur Förderung empfahlen. (pi/rnf)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*