KI-generierte Desinformation als Top-Bedrohung für Wahlen

Desinformation, die durch generative KI angeheizt wird, ist nicht nur bei Wahlen eine echte Bedrohung für Unternehmen. [...]

Martin J. Krämer, Security Awareness Advocate bei KnowBe4 (c) KnowBe4
Martin J. Krämer, Security Awareness Advocate bei KnowBe4 (c) KnowBe4

In dem anlässlich des WEF 2024 publizierten „The Global Risks Report 2024“ wurden von KI generierte Desinformationen als die zweitgrößte Bedrohung hinter Naturkatastrophen aber noch vor Faktoren wie der zunehmenden Politisierung, der Existenzkrise oder aber Cyberattacken eingestuft. Die im Vorfeld befragten 1.500 Teilnehmer aus aller Welt gingen sogar noch einen Schritt weiter, als sie befanden, dass auf kurze Sicht von zwei Jahren Fehlinformationen und Desinformationen sogar das aktuell größte globale Risiko darstellen. Anlässlich von Wahlen in großen Demokratien wie den USA, Indien, Mexiko, Bangladeschs oder Großbritannien ist diese Einschätzung zwar nicht verwunderlich, aber die Risiken werden durch die Möglichkeiten der generativen KI nicht geringer. Open AI informierte Mitte Januar, dass ein erstes Wahlkampfteam in den USA versuchte, mit ChatBots Wähler zu beeinflussen. Die Firma sah sich genötigt in einem ersten Statement auf die eigenen Maßnahmen gegen Beeinflussung und Meinungsmache hinzuweisen.

Bereits im September 2023 legten vier große Tech Konzerne einen Bericht über ihren Kampf gegen Desinformation bei der EU-Kommission vor. Sie wollten aufzeigen, welche Maßnahmen sie ergriffen hatten, um die Verbreitung von Desinformationen einzuschränken. Google gab beispielsweise an, dass dem Unternehmen mehr als 31 Mio. Euro an Werbeeinnahmen entgangen waren, weil diese von Desinformationsakteuren gebucht waren. Darüber hinaus wurde die Schaltung von mehr als 141.000 politisch motivierten Anzeigen abgelehnt. Meta berichtete, dass mehr als 40 Millionen Inhalte auf Facebook und mehr als 1,1 Millionen auf Instagram mit einem Factchecking-Label versehen wurden. 95 Prozent der Nutzer, die auf Inhalte mit einem Warnhinweis stoßen, dass die Informationen faktengeprüft wurden, hätten diese nicht aufgerufen. TikTok meldete darüber hinaus, dass 30 Prozent der Nutzer Inhalte nicht teilen, wenn sie auf der Plattform den Hinweis „ungeprüfte Inhalte“ sehen. Außerdem wurden mehr als 140.000 Videos mit mehr als einer Milliarde Aufrufe von der Plattform entfernt, weil sie gegen die Richtlinie gegen Fehlinformationen verstoßen. Microsoft schloss sich daran an, als es in der ersten Hälfte des Jahres 2023 in der EU Nutzer in mehr als 6,7 Millionen Fällen beim Versuch verdächtige LinkedIn-Konten zu erstellen gehindert hatte (Sperrung bei der Registrierung).

Dennoch und ein Blick in die Möglichkeiten der generativen KI lässt darauf schließen, dass nicht nur die EU-Kommission mehr von den Konzernen fordert, um gegen die Verbreitung von Desinformationen vorzugehen. Mit den Möglichkeiten von LLMs und weitgehender Automatisierung war die Webseiten-Erstellung, das SEO sowie die Bereitstellung und Verbreitung von Inhalten noch nie so schnell, einfach und vor allem günstig möglich. Die Folge ist eine Vertrauenskrise, die Organisationen und die Gesellschaft gleichermaßen treffen. Gefälschte Videos, gefälschte Sprachanrufe und äußerst überzeugende Phishing-E-Mails sind bereits heute eine reale Bedrohung.

Desinformation, die durch generative KI angeheizt wird, ist nicht nur bei Wahlen eine echte Bedrohung für Unternehmen, denn die politische Meinungsmache ist nur eine Möglichkeit der Desinformationsverbreitung. Verleumdungskampagnen, gefälschte Nachrichten und gezielte Manipulationen können sich direkt auf das Geschäftsergebnis auswirken.

Unternehmen jeder Größe sollten mit KI-generierte Desinformationen als Bedrohung für die Cybersicherheit ansehen. Sie müssen sich und ihre Mitarbeiter darauf vorbereiten, die Bedrohungen, die durch die Technologie hervorgerufen und verstärkt werden, zu erkennen und zu bekämpfen. Security Awareness Training verschafft Unternehmen einen Vorteil, indem es das Vertrauen aufrechterhält und Bedrohungen abwehrt. Dies gelingt durch den Dreischritt aus der Erkennung von sogenannten „Red Flags“, dem anhaltenden Engagement durch die Änderung des Verhaltens und durch das Ausbilden von Medienkompetenz. Mitarbeiter profitieren dann sowohl im beruflichen und im privaten Alltag. Sie können ihr Wissen im besten Fall sogar weitergeben und damit Angreifern, die mit Social Engineering-Techniken Zugriff auf sensible Informationen oder aber das Netzwerk zu erhalten, das Leben schwer machen.

Die Bedrohung durch Desinformationen lassen sich mit Mitarbeiterschulungen zumindest auf Unternehmensebene abmildern. Leitlinien für die Vermittlung der geeigneten Werkzeuge, Inhalte und Formate enthalten die folgenden sieben Schritte:

  • Aufklärung und Sensibilisierung: Schulung der Mitarbeiter in der Erkennung von Fake News.
  • Richtlinien für Fehlinformationen: Protokolle zur Identifizierung von falschen Informationen mitteilen.
  • Faktencheck-Tools: Tools zur Überprüfung und Entlarvung von Behauptungen anbieten.
  • Strategische Kommunikation: Informationslücken füllen, um Desinformationen zu verhindern.
  • Wiederherstellungsplan: Mit einem schnellen Notfallplan auf einen Desinformation-as-a-Service (DaaS)-Angriff vorbereiten.
  • Reputationsaufbau: Medien nutzen, um falsche Informationen zu korrigieren und die eigene Marke des Unternehmens zu stärken.
  • Risikobewertung: Die Anfälligkeit von Unternehmen für Desinformationen messbar machen.

*Dr. Martin J. Krämer ist Security Awareness Advocate bei KnowBe4.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*