Audio Deepfakes, also mit Computersystemen imitierte Stimmen, entwickeln sich stetig weiter. Daraus folgt ein Anstieg aus KI unterstützten Betrugsversuchen. [...]
Der sogenannte „Enkeltrick“, bei dem sich der Täter meist als Kind oder Enkelkind des Opfers ausgibt und eine Krisensituation vorgibt, um finanzielle Unterstützung zu erlangen, ist bereits bekannt. Nun werden dabei jedoch künstliche Intelligenzen verwendet, die darauf spezialisiert sind, Stimmen zu imitieren.
Diese KIs brauchen teilweise lediglich 30 Minuten an Audiomaterial und können daraus ein vollständiges Stimmprofil erstellen, mit dem diese Person imitiert werden kann. Mit dem Einsatz von generativer KI gelingt dies erschreckend gut. An das benötigte Audiomaterial zu kommen ist heute auch leichter als jemals zuvor. Social Media macht es möglich.
Es gibt bereits viele Berichte, sogar vor der Verfügbarkeit von generativer KI, von derartigen Betrugsversuchen auch im Unternehmensumfeld, wie ein Vorfall in den Vereinigten Arabischen Emiraten aus dem Jahr 2021 beweist.
Und viele fallen auch darauf herein, weil ein großer Teil gar nicht in der Lage ist, die imitierte Stimme von seinem Original zu unterscheiden. Je mehr Material der KI zur Verfügung steht, desto schwerer wird es, Auffälligkeiten in der imitierten Stimme zu erkennen.
Der Bericht „Beware the Artificial Impostor“ von McAfee zeigt auf, dass weltweit 25 Prozent der Befragten angaben, selbst schon einmal einen Betrugsanruf mit klangähnlicher KI-Stimme erhalten zu haben oder jemanden kennen, dem dies passiert ist.
Mit Online-Diensten wie denen von Eleven Labs, die Instant Voice Cloning anbieten, um eine synthetische Stimme aus 30 Minuten Audio-Samples zu erzeugen, ist es nur eine Frage der Zeit, bis Bedrohungsakteure KI-Stimmen-basierte Betrugsversuche noch stärker ausnutzen.
Laut dem Bericht würde fast die Hälfte (48 %) der Befragten helfen, wenn sie einen Anruf wegen eines Autounfalls erhielten, 47 Prozent bei einem Anruf wegen eines Diebstahls, 43 Prozent bei einem verlorenen Geldbeutel und 41 Prozent, wenn sie im Urlaub Hilfe bräuchten.
70 Prozent sagten außerdem aus, dass sie nicht erkennen könnten, ob die Stimme echt ist oder nicht. Der einzige wirkliche Anhaltspunkt dafür, ob es sich bei einem Anruf um einen Betrug handelt oder nicht, ist also die Tatsache, dass der Anruf selbst unerwartet kommt.
Die Anwendungsmöglichkeiten für diese Art von Betrug in der Geschäftswelt reichen von CEO-Geschenkkartenbetrug bis hin zu digitalem Betrug und vielem mehr – sie alle erfordern, dass die Benutzer innerhalb des Unternehmens kontinuierlich an Security Awareness-Trainings teilnehmen, damit sie wachsam sind, selbst wenn die Stimme am anderen Ende des Telefons vertraut klingt.
Be the first to comment