Da Fake-News heutzutage anscheinend ein fester Bestandteil des digitalen Lebens sind, untersuchen wir, welche Rolle die Technologie bei der Förderung und Verhinderung ihrer Verbreitung spielt. [...]
Fehlinformationen und falsche Nachrichten sind nichts Neues, doch in den letzten Jahren sind diese Begriffe tatsächlich zum Mainstream geworden und haben ein Eigenleben entwickelt. Inzwischen täglich verkündet, sind gefälschte Nachrichten scheinbar überall zu finden, vor allem auf Social-Media-Websites, wo sie sich dank der einfachen Austauschbarkeit und schlechter Moderation schnell verbreiten können. Heute könnte sich sogar die Behauptung, dass ein Inhalt falsch ist, selbst als Fake-News entpuppen.
Trotz des gestiegenen Bewusstseins für dieses Problem fragen viele immer noch, was man noch mehr tun kann, um das Problem einzudämmen. Ein Ansatz, über den die Debatte heftig geführt wird, ist die Anwendung neuer Technologien. In dem Maße, wie Fortschritte bei künstlicher Intelligenz, maschinellem Lernen und Cybersicherheit gemacht werden, könnten wir eine Zukunft sehen, in der gefälschte Nachrichten einen entscheidenden Rückschlag erleiden? Oder werden diese Technologien dazu benutzt werden, noch mehr Falschmeldungen zu verbreiten und die Wahrheit noch weiter zu verzerren?
Gefälschte Fakten
Je weiter wir ins digitale Zeitalter voranschreiten, desto größer werden die Möglichkeiten für Fake-News, sich zu präsentieren. Pascal Geenens, Director of Threat Intelligence bei Radware, führt diesen Anstieg auf die Tatsache zurück, dass „bevor soziale Plattformen wie Facebook, Twitter, Reddit usw. entstanden sind und Nachrichten von Radio, Fernsehen und Zeitungen verbreiteten, hatten die Empfänger der Nachrichten nur sehr begrenzte Möglichkeiten, darauf zu reagieren oder damit zu interagieren“. In der Vergangenheit hatte die begrenzte Verfügbarkeit von Nachrichten und Informationen im Allgemeinen einen positiven Einfluss auf die Qualität der Informationen, die der Öffentlichkeit präsentiert wurden. Je mehr Möglichkeiten der Interaktion und des Konsums von Informationen entstehen, desto mehr Möglichkeiten werden geschaffen, sie in einem anderen Kontext zu präsentieren und völlig neue Sichtweisen zu vermitteln. Für sich allein genommen erreichen diese neuen Stimmen und ungenauen Standpunkte vielleicht nicht viele Menschen, doch in einer digitalen Umgebung, in der Inhalte schnell und einfach ausgetauscht werden können, können falsch informative Artikel schnell den Weg auf die Bildschirme vieler Benutzer finden.
Websites wie Facebook, Twitter und LinkedIn sind Bereiche, in denen Menschen miteinander in Verbindung treten. Für viele Benutzer sind die Verbindungen auf ihren Social-Media-Profilen die digitalen Profile von Menschen, die sie in der realen Welt kennen. Persönliche Verbindungen wie diese genießen bei den Benutzern oft großes Vertrauen, manchmal zu ihrem Nachteil. Wenn eine Person sieht, dass eine ihrer engen, vertrauenswürdigen Verbindungen eine Information mit anderen teilt, glaubt sie eher, dass diese Information korrekt ist, und teilt sie daher eher mit ihren eigenen Followern und Kontakten. Dies kann sehr schnell eskalieren und dazu führen, dass Fake-News die sozialen Medien-Websites überfluten.
Dieses Problem wird oft noch durch einige der Algorithmen verschärft, die von Social-Media-Unternehmen verwendet werden, damit die Benutzer auf ihren Websites scrollen können. Diese Algorithmen identifizieren die Art von Inhalten, mit denen sich die Benutzer gewöhnlich beschäftigen, und stellen sicher, dass sie beim Weiterscrollen ähnliche Arten von Inhalten zu sehen bekommen. Ein Fehler dieser Algorithmen besteht darin, dass sie oft nicht zwischen genauen Informationen und etwas Falschem unterscheiden können. Wenn sich also ein irreführender Inhalt als populär erweist, zögern Social-Media-Algorithmen nicht, ihn bei ihren Benutzern zu bewerben, insbesondere wenn die „Story“ mit der Art von Inhalt übereinstimmt, mit dem sich ein Benutzer normalerweise beschäftigt. Diese Algorithmen können auch zur Schaffung von Online-Echokammern führen, in denen die Benutzer nur Inhalte sehen und sich mit solchen beschäftigen, die mit ihrer Weltsicht übereinstimmen. In solchen Umgebungen können Fehlinformationen und gefälschte Nachrichten sehr schnell als die Wahrheit akzeptiert werden und sogar zu extremeren Standpunkten und Handlungen führen, wenn sie nicht überprüft werden.
Das wohl bekannteste Beispiel für diese Art von Szenario ereignete sich im Jahr 2018, als WhatsApp unter Druck gesetzt wurde, die Anzahl der Gruppen, an die eine Nachricht weitergeleitet werden konnte, zu minimieren. Dies geschah nach unglücklichen Vorfällen in Indien, wo Blitzlichtmobs zusammenkamen, um Mitglieder der Öffentlichkeit zu lynchen, nachdem auf der Plattform verbreitete Nachrichten sie fälschlicherweise als Kriminelle identifizierten. In Anlehnung an die Echokammern, die auf Social-Media-Websites eingerichtet wurden, wurden diese Botschaften oft an Freunde und Familienmitglieder weitergeleitet, die diesen vertrauten, da sie von einer „zuverlässigen“ Quelle stammten.
KI-Bots werden auch online missbraucht und können zur Verbreitung von Fehlinformationen eingesetzt werden. Geeners argumentiert, dass „Computer- oder Human-Bots Meldungen mit ähnlichen Nachrichten, jedoch von mehreren Konten, in verschiedenen Sprachen und aus verschiedenen Regionen verbreiten können“. Angesichts der Tatsache, dass viele Bots rund um die Uhr und 365 Tage im Jahr online sind, können sie Informationen zu jeder Tageszeit austauschen, was das Potenzial irreführender Inhalte zur Verbreitung von Viren erheblich erhöht. In Verbindung mit ihrer Fähigkeit, über große geografische Entfernungen miteinander zu kommunizieren, haben Bots das Potenzial, wirklich globale Fehlinformationskampagnen zu ermöglichen. Viele Bots werden so eingerichtet, dass sie auf bestimmte Schlüsselwörter oder Phrasen reagieren. In solchen Fällen können Personen, die falsche Nachrichten verbreiten wollen, diese Worte einfach in ihrem Beitrag erwähnen, und der Bot wird sie aufgreifen und erneut weitergeben. Mit einer effektiven Programmierung kann selbst ein kleines Bot-Netzwerk eine beträchtliche Anzahl von Benutzern praktisch in kürzester Zeit erreichen.
Chad Anderson, leitender Sicherheitsforscher bei Domain Tools, erklärt, dass nur ein geringer Betrag an Finanzmitteln erforderlich ist, um robuste Fehlinformationskampagnen aufzusetzen: „Jeder kann mit einer Reihe von Tools gegen eine geringe Gebühr Graswurzelkampagnen starten, Organisationen haben KI, die gefälschte lokale Nachrichtenartikel schreiben und Fehlinformationen verbreiten“. Kostengünstige Einstiegspunkte waren schon immer eine Versuchung für Cyberkriminelle, die sie ausnutzen wollten, und da einige KI jetzt in der Lage sind, irreführende Artikel zu verfassen, war es für Einzelpersonen noch nie so einfach, diesen Vorteil für sich zu nutzen. Um die Sache noch schlimmer zu machen, argumentiert Anderson, dass selbst kleine Kampagnen mit minimaler Finanzierung im Vergleich zu „gut finanzierten, staatlich und von Unternehmen gesponserten Fehlinformationskampagnen, [die] dazu dienen, Wähler und Verbraucher zu beeinflussen“, verblassen.
Über die Wahrheit sprechen
Trotz der bedeutenden Rolle, die einige Technologien bei der Verbreitung von Fake-News und Fehlinformationen spielen, gibt es viele Unternehmen und Einzelpersonen, die ernsthaft versuchen, die Technologie zur Lösung zu machen. Dr. Ian Brown, Leiter der Datenwissenschaft bei SAS UK&I, spricht über die Fortschritte in der Datenanalyse und darüber, wie „die Durchführung kontinuierlicher Analysen entscheidend ist, wenn Social-Media-Plattformen schnell und verantwortungsbewusst auf gefälschte Nachrichten reagieren sollen“. In den letzten Jahren ist die Analytik aufgrund ihrer Fähigkeit, schnell Erkenntnisse aus großen Datensätzen zu gewinnen, immer mehr in den Geschäftsbetrieb integriert. Da die Analytik immer fortschrittlicher wird und in der Lage ist, in Echtzeit zu überwachen, könnte sie zur Überwachung von Inhalten und zur Bereitstellung von Einblicken verwendet werden, während diese in einem digitalen Raum live geschaltet werden. Robuste Analyseframeworks könnten gängige Phrasen und Schlüsselwörter identifizieren, die mit falsch informativen Artikeln verbunden sind, wodurch die Geschwindigkeit, mit der Moderatoren den Inhalt bewerten können, erheblich gesteigert werden könnte. Selbst ohne Moderation könnten Analysen dazu verwendet werden, Inhalte als „potenziell irreführend“ zu kennzeichnen.
Diese Art von Szenario trat vor kurzem auf Twitter in den Vordergrund. Der Technikgigant kennzeichnete kürzlich einen Tweet von Präsident Trump als „potenziell irreführend“, nachdem er ein Video veröffentlicht hatte, in dem er sich für die Verwendung von Hydroxychlorochin zur Behandlung von Covid-19-Fällen aussprach, obwohl sich die Wissenschaftler weitgehend darin einig sind, dass dies keinen solchen Nutzen hat. Anderson sieht dies als einen großen Schritt in die richtige Richtung, da die Kennzeichnung „Menschen dazu veranlassen kann, die ihnen vorgestellten Informationen automatisch in Frage zu stellen“. Wenn die Benutzer darauf aufmerksam gemacht werden, dass der Inhalt, den sie sehen, irreführend sein könnte, besteht eine größere Wahrscheinlichkeit, dass sie die Botschaft selbst nicht weitergeben, wodurch die Verbreitung effektiv eingeschränkt wird. Anderson geht noch einen Schritt weiter und ist der Meinung, dass Web-Browser „ein Banner an den Anfang von Sites setzen sollten, die kürzlich aufgetaucht sind oder von denen bekannt ist, dass sie Desinformationen verbreiten“. Diese Banner könnten dann entfernt werden, wenn Websites beweisen können, dass die Informationen auf ihren Sites der Wahrheit entsprechen.
Brown glaubt auch, dass KI-basierte Entscheidungssysteme eingesetzt werden könnten, um sicherzustellen, dass sich Nachrichten- und Social-Media-Websites verantwortungsbewusst verhalten. Er behauptet, dass die künstliche Intelligenz bereits weit genug fortgeschritten ist, um „die Quelle problematischen Materials aufzuspüren“, und dass sie genutzt werden sollte, um Unternehmen zu alarmieren. In Fällen, in denen Fehlinformationen auf der eigenen Website eines Unternehmens entstanden sind, können sie überprüft und gegebenenfalls entfernt werden. Wenn der Inhalt von einer anderen Stelle stammt, kann das Unternehmen ihn als solchen kennzeichnen und gegebenenfalls sogar den Verweis darauf entfernen. Nach Ansicht von Brown funktioniert diese Art von Situation am besten auf einigen der größeren Informationsplattformen, die aufgrund des Umfangs der Inhalte, die sie konsumieren und bewerben, von einer zusätzlichen Moderation profitieren können.
Viele Jahre lang haben CAPTCHA-Programme online für Frustration gesorgt, da sie mühsam feststellen, ob ein potenzieller Nutzer ein Mensch ist oder nicht. Heutzutage sind Unternehmen jedoch dabei, ihre CAPTCHA-Programme mit dem spezifischen Ziel der Bekämpfung von Fehlinformationen neu auszurichten. Bei richtiger Anwendung sollten CAPTCHA-Programme in der Lage sein, Social-Media-Unternehmen dabei zu helfen, die verräterischen Anzeichen von gefälschten Nachrichten fast sofort zu erkennen. Und nicht nur Social-Media-Websites könnten von diesem Ansatz profitieren. Metro Brasilien konnte seine CAPTCHA-Programme so umgestalten, dass die Leser über die Möglichkeiten gefälschter Nachrichten aufgeklärt werden – statt zu erkennen, ob sich auf einem bestimmten Platz Autos befanden, wurden die Leser gebeten, ein bestimmtes Zeichen einer gefälschten Nachricht hervorzuheben.
An anderer Stelle arbeitet die UNO mit Unternehmen zusammen, um die Verbreitung von Fehlinformationen rund um Covid-19 zu stoppen. Das SAP-Innovationsbüro in Asien war in der Lage, eine Chatbot-basierte Anwendung zu entwickeln, mit dem Ziel, den Anwendern genaue Informationen über Covid-19 in Echtzeit zur Verfügung zu stellen und ihnen personalisierte Anleitungen zu geben, wie sie die Verbreitung des Virus stoppen können. In Zukunft könnte diese Technologie angepasst werden, um andere beliebte Themen der Fehlinformation zu behandeln, sobald sie auftauchen. Und wenn die Chatbots immer ausgefeilter werden, könnten sie den Benutzern ganz spezifische Einblicke in die Glaubwürdigkeit der von ihnen konsumierten Inhalte bieten.
Insgesamt steht Fehlinformationen und Fake-News eine interessante Zukunft bevor. Ohne signifikante Veränderungen in der Funktionsweise vieler digitaler Kanäle wird Fehlinformation wahrscheinlich immer einen Nährboden für Erfolg haben, und es wird zweifellos Fälle geben, in denen irreführende Inhalte durch die Maschen schlüpfen. Diese Fälle werden jedoch wahrscheinlich seltener werden, da Technologien entwickelt werden, die die charakteristischen Merkmale gefälschter Nachrichten mit immer größerer Genauigkeit erkennen können. Und diese Technologie wird durch einen digitalen Verbraucher verstärkt werden, der gründlich aufgeklärt und sich bewusst ist, dass die Inhalte, die er konsumiert, möglicherweise nicht 100% zuverlässig sind.
*Conor O’Brien schreibt unter anderem für IDG Connect.
Be the first to comment