Deutsche befürchten Einfluss von Fake News auf die Europawahl

PwC-Umfrage: Sieben von zehn Deutschen sehen in Fake News eine große Gefahr im Vorfeld der Europawahl. Mehr als jeder Vierte glaubt, dass er durch Fake News in seiner Wahlentscheidung beeinflussbar ist. [...]

Jeder Dritte hat noch überhaupt keine Aufklärung über Fake News mitbekommen. (c) rangizzz - Fotolia
Jeder Dritte hat noch überhaupt keine Aufklärung über Fake News mitbekommen. (c) rangizzz - Fotolia

Mit Blick auf die bevorstehende Europawahl vom 23. bis 26. Mai 2019 halten sieben von zehn Deutschen Falschmeldungen, sogenannte Fake News, für eine große Gefahr. Dies ist eines der Kernergebnisse der repräsentativen Umfrage „Fake News 2019: Einfluss auf die Europawahl?“, die die Wirtschaftsprüfungs- und Beratungsgesellschaft PricewaterhouseCoopers (PwC) unter 1.000 Bundesbürgern durchgeführt hat. Ein weiteres Ergebnis der Befragung lautet: 44 Prozent meinen, sie könnten Fake News wahrscheinlich nicht sicher erkennen und seien dadurch in ihrer Wahlentscheidung beeinflussbar.

Fake News und Social Bots als wachsende Gefahr für die Demokratie

Auch die Europäische Union befürchtet, dass es bei der Europawahl zu Manipulationen kommt und beanstandet, dass Technologiefirmen wie Google, Facebook und Twitter zu wenig gegen Desinformation unternehmen. Außerdem erwägt die EU, Parteien finanziell zu bestrafen, wenn sie im Wahlkampf Falschinformationen verbreiten. Über ein Schnellwarnsystem können Mitgliedsstaaten zudem Informationen über ausländische Desinformationskampagnen austauschen.

„Bereits unsere früheren Studien haben gezeigt, dass viele Menschen in Deutschland in Fake News und Social Bots ein zunehmendes Problem für die Demokratie sehen“, sagt Werner Ballhaus, Leiter des Bereichs Technologie, Medien und Telekommunikation bei PwC in Deutschland (siehe dazu die PwC-Studie „Social Bots: Gefahr für die Demokratie?“, August 2017). Die Befragungen, die PwC bereits seit 2017 regelmäßig durchführt, zeigen auch, was nach Meinung der Bevölkerung die wirksamsten Mittel zur Vermeidung von Fake News sind. Die Bürger sehen demnach beim Thema Fake News vor allem Politik, Medien und Plattformbetreiber in der Verantwortung.

Nutzerbeschwerden bleiben größtenteils erfolglos

Die deutsche Politik etwa hat im Sommer 2017 das „Netzwerkdurchsetzungsgesetz“ verabschiedet. Seit Anfang 2018 müssen Anbieter sozialer Netzwerke wie Facebook, Twitter und Co. „offensichtlich rechtswidrige Inhalte“ innerhalb von 24 Stunden nach Eingang einer Beschwerde entfernen oder sperren. Für nicht offensichtlich rechtswidrige Inhalte haben die Plattformbetreiber sieben Tage Zeit. Kommen sie dieser Verpflichtung nicht nach, drohen Bußgelder in Millionenhöhe. Kritiker der Initiative monieren vor allem, dass die Rechtsdurchsetzung an private Unternehmen übertragen werde. Außerdem bestehe die Gefahr des „Overblocking“, dass Unternehmen also auch eigentlich gesetzeskonforme Inhalte löschen, um Strafzahlungen zu vermeiden. „Die ersten Zwischenbilanzen zeigen, dass Nutzerbeschwerden in einem Großteil der Fälle keinen Erfolg haben“, sagt PwC-Experte Werner Ballhaus. Bei Facebook etwa seien im ersten Halbjahr 2018 in nur 362 Fällen von 1.704 Beschwerden Inhalte gelöscht oder gesperrt worden. Das Bundesamt für Justiz soll daher prüfen, ob die Beschwerdeformulare möglicherweise zu schwer auffindbar sind.

Im Vorfeld der Europawahl haben sich die Technologiekonzerne auf einen freiwilligen Verhaltenskodex geeignet. Er sieht vor, Verbreitern von Falschinformationen Werbeeinnahmen zu entziehen. Außerdem soll Werbung klar gekennzeichnet werden, die Beschwerdemöglichkeiten sollen ausgeweitet werden. Facebook etwa beschäftigt schon heute weltweit etwa 30.000 Menschen zur Bekämpfung von Fake News. Das Unternehmen setzt außerdem Künstliche Intelligenz ein, um Falschinformationen zu identifizieren. „Ein Problem besteht allerdings darin, dass die Algorithmen der KI oftmals nicht transparent sind“, sagt Werner Ballhaus und ergänzt: „In den einzelnen Ländern gibt es nicht nur unterschiedliche Gesetze, sondern auch ein jeweils anderes kulturelles Verständnis darüber, was unter Fake News zu verstehen ist.“ Hier stoße die KI an ihre Grenzen, weshalb in die Debatte auch die Gesellschaft eingebunden werden müsse.

Medien-Allianzen gegen sinkendes Vertrauen

PwC-Befragungen haben außerdem ergeben, dass das Vertrauen in die Medien seit 2016 gesunken ist (siehe dazu die PwC-Studie „Vertrauen in Medien 2018“). Insbesondere die sozialen Medien haben dabei einen deutlichen Vertrauensverlust erlitten. So trauen nur vier von zehn Deutschen zumindest einem Social-Media-Kanal. Gründe dafür sind vor allem mangelnde Objektivität und fehlende Kontrollmechanismen. Klassische Medien wie die öffentlich-rechtlichen Sender und Printmedien haben zwar auch mit Vertrauensverlust zu kämpfen. Doch immerhin noch 70 Prozent der Bevölkerungen halten diese Medien für glaubwürdig. Ihnen schreiben die Deutschen auch eine wichtige Rolle bei der Vermeidung von Fake News zu. Die Medienhäuser sind bereits verstärkt aktiv geworden. So haben beispielsweise fünf deutsche Medienunternehmen eine Allianz zum Kampf gegen Fake News gebildet und eine Agenda für „True Media“ veröffentlicht. Mit der „First Draft Coalition“ existiert seit 2016 zudem eine globales Medien-Netzwerk gegen Falschinformation. Auch deutsche Medien wie die ARD, Zeit Online und die Deutsche Presseagentur sind daran beteiligt.

Die aktuelle PwC-Befragung zeigt allerdings auch, dass jeder Dritte noch überhaupt keine Aufklärung über Fake News mitbekommen hat. „Ein durchaus besorgniserregender Befund“, sagt Werner Ballhaus, Leiter des Bereichs Technologie, Medien und Telekommunikation bei PwC in Deutschland. „Aufklärung zum Beispiel an Schulen ist daher wichtig, um die Medienkompetenz zu steigern und zu vermitteln, wie man Fake News identifizieren kann und was eine seriöse Nachrichtenquelle ausmacht“, sagt der Experte.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*