Erfolgreiche Voice-Deepfake-Attacke war erst der Anfang

Bereits vor gut einem Jahr hat das „Security Center of Excellence“ der NTT vor Deepfakes gewarnt. Jetzt ist aus der bloßen Gefahr bittere Realität geworden: Mit einem Voice-Deepfake konnten Diebe mehr als 240.000 US-Dollar erbeuten. [...]

David Wollmann, Executive Consultant bei NTT Security
David Wollmann, Executive Consultant bei NTT Security (c) NTT Security

Bereits seit Längerem sind Foto– und Video-Deepfakes im Umlauf, die von echtem Bildmaterial kaum mehr zu unterscheiden sind. Jetzt hat erstmals in größerem Ausmaß ein Voice-Deepfake zugeschlagen. Mit einer KI-basierten Software und der Imitation der Stimme eines CEO ist es Angreifern gelungen, in den Besitz von 243.000 US-Dollar zu gelangen.

Derartige Angriffe sind nach Einschätzung von NTT Security relativ einfach realisierbar. Entweder der Angreifer nutzt frei verfügbare Videos vom CEO im Internet, aus denen er die Stimme extrahiert. Oder aber er verwendet ein Ausgangsmaterial für ein Voice-Deepfake, das demjenigen des CEOs ähnelt. Gefährdet für solche Angriffe sind nach NTT Security vor allem große, international aufgestellte Unternehmen, bei denen ein „Opfer“ meist die Stimme des Gegenübers nicht zu 100 Prozent genau kennt. Angriffe mit einer ähnlich klingenden Stimme sind hier sehr erfolgversprechend.

„Es ist wenig verwunderlich, dass die sich dynamisch entwickelnde Deepfake-Technologie für CyberAttacken verwendet wird. Es war lediglich eine Frage der Zeit“, erklärt David Wollmann, Executive Consultant bei NTT Security. „Das Bekanntwerden dieses Angriffs wird aus meiner Sicht dazu führen, dass die Anzahl der Social-Engineering-Angriffe mittels Deepfakes, sei es Voice oder auch Video, stark zunehmen wird.“

Deepfakes sind kaum zu erkennen

Doch gibt es Möglichkeiten derartige Angriffe zu erkennen? Ja und nein. Es kommt ganz darauf an, wie viel Aufwand in die Deepfake-Erstellung gesteckt wird. Ein nicht so gut vorbereiteter Angreifer könnte auffallen, wenn er nicht genug Audiomaterial vorbereitet hat und dieses dann ad hoc generieren muss. Dabei kann es zu Verzögerungen in den Antwortzeiten kommen, was ein Hinweis darauf sein kann, dass ein Angriff mit Voice-Deepfakes erfolgt. Das Problem ist allerdings, dass sich mit vergleichsweise geringem Aufwand schon relativ gute Ergebnisse erzielen lassen.

Was bleibt Unternehmen also zu tun, um nicht auf solche Betrüger hereinzufallen? „Für Voice-Deepfake-Angriffe gibt es bisher keine technischen Abwehrmaßnahmen“, so Wollmann. „Ist das Deepfake gut gemacht, so wird es mit dem menschlichen Gehör nur sehr schwer oder gar nicht zu erkennen sein. Man könnte höchstens auf komische Geräusche in der Leitung achten, die ein Deepfake-Indiz sein könnten.“

Im Hinblick auf die Deepfake-Gefahr empfiehlt NTT Security Unternehmen, einen Prozess aufzusetzen, der bei unternehmenskritischen Aktivitäten wie einer finanziellen Transaktion oder Übermittlung von Forschungs- und Kundendaten eine telefonische Rückversicherung beinhaltet. Darüber hinaus seien auch Awareness-Trainings empfehlenswert, die speziell auf das Thema Social Engineering eingehen.


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*