Wird Künstliche Intelligenz unsere Wahlen verändern?

Die USA beispielsweise steuern auf eine entscheidende Präsidentschaftswahl zu, genau zu einer Zeit, in der die generative KI-Technologie entwickelt genug zu sein scheint, potenzielle Wähler mit Bildern und Texten, die sie online sehen zu sehen bekommen, aktiv zu beeinflussen. Das hat dazu geführt, dass einige das Jahr 2024 als "die erste KI-Wahl" bezeichnen. [...]

Foto: Tom/Pixabay

KI ist eine faszinierende Sache und die freie Zugänglichkeit für jeden, beispielsweise via die OpenAI-Webseite, eine Bereicherung. Aber wie man diese effektiv nutzten kann, das steht auf einem anderen Blatt. Ein Experte wird mit KI ganz andere Ideen angehen, als jemand, der kriminelle Ziele verfolgt.

Auch Sophos arbeitet mit KI und verwendet viel Zeit und finanzielle Ressourcen darauf, eigene Modelle zu entwickeln und sie für spezifische technologische Prozesse zu trainieren. Sie sollen unsere Forschenden bei der Beschleunigung von Arbeitsprozessen oder der Analyse riesiger Datenmengen unterstützen.

Jemand mit weniger guten Absichten, stattdessen aber viel Geld, könnte sich KI-Modelle bauen, die weitaus effektiver sein könnten als das, worauf Normalnutzer zugreifen können, um Fake Content zu produzieren.

Eine Frage des Geldes

Geld ist eine entscheidende Ressource, um realistische Bedrohungsszenarien zu entwickeln. Gefälschte Bilder, Stimmen, Videos – dafür braucht man spezialisierte Datenexperten, keine Freizeit-Tüftler. Hinsichtlich des Einsatzes von KI besteht viel Desinformation.

In den letzten Wahlzyklen der USA sahen wir Videos, die editiert wurden (vielleicht um jemanden kränker aussehen zu lassen, als er ist), oder mit erfundenen Worteinlassungen, die jemand im echten Leben so nie gesagt hätte.

Und wir nähern uns dem Punkt, an dem das wirklich auf Abruf generiert werden kann. Sicherlich ist das Klonen von Stimmen oder das Klonen von Bildern für eine gut ausgestattete Organisation oder eine Nation jetzt möglich. Ich glaube allerdings nicht, dass Amateure das bereits effektiv tun können, weil die Anzeichen dafür, dass es gefälscht ist, ohne viel Aufwand und Ressourcen und Experten dahinter einfach zu offensichtlich sind.

Ich bezweifle auch, dass die Technologie bereits für jeden zugänglich ist, um überzeugende Deepfakes zu erstellen. Vielmehr besteht die größere Bedrohung wahrscheinlich von den koordinierten Bemühungen gut ausgestatteter staatlich unterstützter Gruppen.

Größtes Risiko: massenweise Fake Konten als Fangruppe

Das größte aktuelle Risiko ist meiner Meinung nach die massenweise Generierung von Fake-Konten, um eine bestimmte politische Agenda zu pushen. Zerstörerische Inhalte, die eine AI selbst schreibt , sind zunächst zu vernachlässigen. Es wird ein Mensch sein, der eine Idee haben und diese dank künstlicher Intelligenz in einem Maße umsetzen können wird, wie wir es bislang noch nicht gesehen haben.

Die großen Sprachmodelle ermöglichen es ausländischen Akteuren, sich in einem Ausmaß und mit einer Geschwindigkeit zu tarnen, die sie vorher nicht erreichen konnten.

Für ein Meme einer Internet-Forschungsagentur (in 2016 im Wahlkampf von Clinton und Trump) mussten zum Beispiel ein paar wirklich gute englische Redakteure die Grammatik überprüfen und die Texte verfassen, um dann jeweils noch kleine Änderungen vornehmen und all diese Tweets oder Instagram-Posts oder was auch immer manuell verschicken zu können. Das kann jetzt alles automatisiert werden. Ein Problem.

Eine Million Dollar in Rakete oder KI…

Es gibt nur sehr wenige tatsächliche politische Deepfakes. Warum? Weil wir es kaum nachweisen können. Die Betrügereien sind nicht raffinierter geworden durch KI, wohl aber effizienter. ChatGPT spricht fließend in fast jeder Sprache, es wäre leichtsinnig zu glauben, dass Phisher und Betrüger aller Art dies nicht für Übersetzungszwecke nutzen würden.

Wahrscheinlich werden wir keine Deepfakes von Amtsträgern oder ihren Herausforderern sehen, aber vielleicht etwas, das sich womöglich irgendwie seltsam oder verdächtig anfühlt. Wenn wir über Dinge in unserem persönlichen Maßstab nachdenken, vergessen wir schnell, wie billig KI-gesteuerte Betrugsaktivitäten im Vergleich zu traditionellen Waffen sind.

Eine Rakete kostet über eine Million Dollar. Die Menge an Grafikprozessoren, die man mit dieser einen Million Dollar kaufen kann, um KI-Fälschungen zu erstellen, ist enorm. Man kann also mit einer Million Dollar eine Einrichtung mit einer Rakete zerstören oder eine ganze Gesellschaft mit einer Desinformationskampagne aus dem Gleichgewicht bringen.

Und das bedeutet, dass so ziemlich jedes Land auf der Welt, wenn es will, finanziell in der Lage ist, diese Dinge in großem Maßstab zu tun. Für einzelne Akteure jedoch, denke ich, ist diese Möglichkeit noch zu weit entfernt, als dass wir sie in 2024 sehen werden.


Mehr Artikel

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*