Erfolgreiche Voice-Deepfake-Attacke war erst der Anfang

Bereits vor gut einem Jahr hat das „Security Center of Excellence“ der NTT vor Deepfakes gewarnt. Jetzt ist aus der bloßen Gefahr bittere Realität geworden: Mit einem Voice-Deepfake konnten Diebe mehr als 240.000 US-Dollar erbeuten. [...]

David Wollmann, Executive Consultant bei NTT Security
David Wollmann, Executive Consultant bei NTT Security (c) NTT Security

Bereits seit Längerem sind Foto– und Video-Deepfakes im Umlauf, die von echtem Bildmaterial kaum mehr zu unterscheiden sind. Jetzt hat erstmals in größerem Ausmaß ein Voice-Deepfake zugeschlagen. Mit einer KI-basierten Software und der Imitation der Stimme eines CEO ist es Angreifern gelungen, in den Besitz von 243.000 US-Dollar zu gelangen.

Derartige Angriffe sind nach Einschätzung von NTT Security relativ einfach realisierbar. Entweder der Angreifer nutzt frei verfügbare Videos vom CEO im Internet, aus denen er die Stimme extrahiert. Oder aber er verwendet ein Ausgangsmaterial für ein Voice-Deepfake, das demjenigen des CEOs ähnelt. Gefährdet für solche Angriffe sind nach NTT Security vor allem große, international aufgestellte Unternehmen, bei denen ein „Opfer“ meist die Stimme des Gegenübers nicht zu 100 Prozent genau kennt. Angriffe mit einer ähnlich klingenden Stimme sind hier sehr erfolgversprechend.

„Es ist wenig verwunderlich, dass die sich dynamisch entwickelnde Deepfake-Technologie für CyberAttacken verwendet wird. Es war lediglich eine Frage der Zeit“, erklärt David Wollmann, Executive Consultant bei NTT Security. „Das Bekanntwerden dieses Angriffs wird aus meiner Sicht dazu führen, dass die Anzahl der Social-Engineering-Angriffe mittels Deepfakes, sei es Voice oder auch Video, stark zunehmen wird.“

Deepfakes sind kaum zu erkennen

Doch gibt es Möglichkeiten derartige Angriffe zu erkennen? Ja und nein. Es kommt ganz darauf an, wie viel Aufwand in die Deepfake-Erstellung gesteckt wird. Ein nicht so gut vorbereiteter Angreifer könnte auffallen, wenn er nicht genug Audiomaterial vorbereitet hat und dieses dann ad hoc generieren muss. Dabei kann es zu Verzögerungen in den Antwortzeiten kommen, was ein Hinweis darauf sein kann, dass ein Angriff mit Voice-Deepfakes erfolgt. Das Problem ist allerdings, dass sich mit vergleichsweise geringem Aufwand schon relativ gute Ergebnisse erzielen lassen.

Was bleibt Unternehmen also zu tun, um nicht auf solche Betrüger hereinzufallen? „Für Voice-Deepfake-Angriffe gibt es bisher keine technischen Abwehrmaßnahmen“, so Wollmann. „Ist das Deepfake gut gemacht, so wird es mit dem menschlichen Gehör nur sehr schwer oder gar nicht zu erkennen sein. Man könnte höchstens auf komische Geräusche in der Leitung achten, die ein Deepfake-Indiz sein könnten.“

Im Hinblick auf die Deepfake-Gefahr empfiehlt NTT Security Unternehmen, einen Prozess aufzusetzen, der bei unternehmenskritischen Aktivitäten wie einer finanziellen Transaktion oder Übermittlung von Forschungs- und Kundendaten eine telefonische Rückversicherung beinhaltet. Darüber hinaus seien auch Awareness-Trainings empfehlenswert, die speziell auf das Thema Social Engineering eingehen.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*