KI und Deepfakes – ein neues Zeitalter der Cyberbedrohungen ist eingeläutet

Künstliche Intelligenz (KI) spielt eine wichtige Rolle bei der Verbesserung von Deepfakes, aber sie kann auch zur Erkennung und Bekämpfung dieser Manipulationstechniken eingesetzt werden. Die Tragweite dieser technischen Fortschritte für die globale Cybersicherheit wird bereits jetzt deutlich. [...]

Foto: GerdAltmann/Pixabay

So wurde durch die rasante Weiterentwicklung von Künstlicher Intelligenz und darauf basierend auch von Deepfakes die Beweislast in der öffentlichen Wahrnehmung umgekehrt.

Die Opfer eines auf Deepfakes gestützten Cyberangriffs, also die Person deren Identität imitiert wurde, müssen nun beweisen, dass sie eine bestimmte Aussage nicht getätigt haben, die ihnen unterstellt wird – ein oftmals nahezu aussichtsloses Unterfangen. Gerade aufgrund dieser Beweislastumkehr werden Deepfakes zunehmend attraktiver für Desinformationskampagnen.  

Einer der ersten nationalstaatlichen Akteure, der diese Form der Desinformation nutzen wird, ist Russland. Das Land hat eine lange Tradition darin, aktiv Maßnahmen zu ergreifen, um die „Schwächen des Westens“ auszunutzen und Spaltungen in sozialen Fragen, Meinungsfreiheit und demokratischer Politik zu betreiben, indem es die eigene Propaganda-Maschinerie in Gang setzt.

Die grundsätzliche Verfügbarkeit von immer leistungsfähigeren Computern und KI-Tools, sowie die Menge des im Internet verfügbaren Audio- und Video- Materials von Staatsoberhäuptern, Prominenten und anderen Persönlichkeiten und auch Privatpersonen bedeutet jedoch, dass mittlerweile fast jeder Internet-Troll auch ein Bedrohungsakteur sein kann.

Selbst wenn der Deepfake irgendwann widerlegt wird, ist es dann oftmals schon zu spät. Nehmen wir an, er existiert lange genug, um viral zu gehen. In diesem Fall wird es äußerst schwierig sein, diese angebliche „Wahrheit“ wieder aus der Welt – oder zumindest aus dem Gedächtnis – zu schaffen.

Vor allem, nachdem sich ein bestimmter Narrativ in den Köpfen der Menschen verankert hat, die das gefälschte Material gesehen haben. Es besteht die Gefahr, dass der Eindruck erweckt wird, ein Staatsoberhaupt oder eine andere Person der Öffentlichkeit würde eine bestimmte Aussage treffen, die aus freien Stücken so niemals getroffen worden wäre.

Das Risiko das hierdurch entsteht ist, dass diese Aussage plötzlich unbewusst mit dem eigentlichen Opfer assoziiert wird, auch wenn es dafür keinerlei Grundlage gibt, abgesehen von einer erwiesenen Fälschung.

Glücklicherweise kann ein solcher Deepfake kann momentan noch schnell von anderen Medien widerlegt werden. Gründliche Recherche und das Hinzuziehen von weiteren Quellen erlauben es auch dem ungeübten Auge, Deepfakes zu entlarven.

Angesichts des aktuellen Konflikts (Russland-Ukraine) und potenzieller Konflikte (China-Taiwan), geht die größere Gefahr von einem Deepfake aus, der eine Authentizität nie zuvor dagewesener Qualität besitzt. Dadurch könnten Bedrohunsgakteure die Weltmeinung massiv beeinflussen und einen Krieg erzwingen, um ihre Interessen durchzusetzen.

Ausblick

Desinformation ist eine mächtige Waffe in der politischen Kriegsführung, die zwar nicht neu ist, allerdings enorm von jüngsten technologischen Entwicklungen und Meilensteinen profitieren kann. Das Verständnis des Gegners und seiner Ziele kann Verantwortlichen bei der Entwicklung von wirksamen Gegenmaßnahmen helfen.

Doch nicht alle Lösungen und Hilfen sind dabei technischer Natur. Einige sind verhaltensorientiert. Genau darauf wird ein raffinierter Gegner abzielen.

Ganz gleich, ob es darum geht, die öffentliche Meinung schrittweise zu manipulieren oder den Vorwurf einer schrecklichen Tat zu erheben: Die Angreifer setzen darauf, dass das menschliche Verhalten vorhersehbare Reaktionen hervorruft.

Es könnte daher an der Zeit sein, Edgar Allen Poes Ratschlag „nichts zu glauben, was man hört, und nur die Hälfte zu glauben, von dem was man sieht“, in das Zeitalter der Künstlichen Intelligenz zu übertragen.

powered by www.it-daily.net


Mehr Artikel

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*