Generative KI macht Audio Deepfakes gefährlicher

Audio Deepfakes, also mit Computersystemen imitierte Stimmen, entwickeln sich stetig weiter. Daraus folgt ein Anstieg aus KI unterstützten Betrugsversuchen. [...]

Foto: Alexa/Pixabay

Der sogenannte „Enkeltrick“, bei dem sich der Täter meist als Kind oder Enkelkind des Opfers ausgibt und eine Krisensituation vorgibt, um finanzielle Unterstützung zu erlangen, ist bereits bekannt. Nun werden dabei jedoch künstliche Intelligenzen verwendet, die darauf spezialisiert sind, Stimmen zu imitieren.

Diese KIs brauchen teilweise lediglich 30 Minuten an Audiomaterial und können daraus ein vollständiges Stimmprofil erstellen, mit dem diese Person imitiert werden kann. Mit dem Einsatz von generativer KI gelingt dies erschreckend gut. An das benötigte Audiomaterial zu kommen ist heute auch leichter als jemals zuvor. Social Media macht es möglich.

Es gibt bereits viele Berichte, sogar vor der Verfügbarkeit von generativer KI, von derartigen Betrugsversuchen auch im Unternehmensumfeld, wie ein Vorfall in den Vereinigten Arabischen Emiraten aus dem Jahr 2021 beweist.

Und viele fallen auch darauf herein, weil ein großer Teil gar nicht in der Lage ist, die imitierte Stimme von seinem Original zu unterscheiden. Je mehr Material der KI zur Verfügung steht, desto schwerer wird es, Auffälligkeiten in der imitierten Stimme zu erkennen.

Der Bericht „Beware the Artificial Impostor“ von McAfee zeigt auf, dass weltweit 25 Prozent der Befragten angaben, selbst schon einmal einen Betrugsanruf mit klangähnlicher KI-Stimme erhalten zu haben oder jemanden kennen, dem dies passiert ist.

Mit Online-Diensten wie denen von Eleven Labs, die Instant Voice Cloning anbieten, um eine synthetische Stimme aus 30 Minuten Audio-Samples zu erzeugen, ist es nur eine Frage der Zeit, bis Bedrohungsakteure KI-Stimmen-basierte Betrugsversuche noch stärker ausnutzen.

Laut dem Bericht würde fast die Hälfte (48 %) der Befragten helfen, wenn sie einen Anruf wegen eines Autounfalls erhielten, 47 Prozent bei einem Anruf wegen eines Diebstahls, 43 Prozent bei einem verlorenen Geldbeutel und 41 Prozent, wenn sie im Urlaub Hilfe bräuchten.

70 Prozent sagten außerdem aus, dass sie nicht erkennen könnten, ob die Stimme echt ist oder nicht. Der einzige wirkliche Anhaltspunkt dafür, ob es sich bei einem Anruf um einen Betrug handelt oder nicht, ist also die Tatsache, dass der Anruf selbst unerwartet kommt.

Die Anwendungsmöglichkeiten für diese Art von Betrug in der Geschäftswelt reichen von CEO-Geschenkkartenbetrug bis hin zu digitalem Betrug und vielem mehr – sie alle erfordern, dass die Benutzer innerhalb des Unternehmens kontinuierlich an Security Awareness-Trainings teilnehmen, damit sie wachsam sind, selbst wenn die Stimme am anderen Ende des Telefons vertraut klingt.

powered by www.it-daily.net


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

News

Startschuss für neues Studium „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln

Mit einem fortschrittlichen Konzept und praxisnaher Ausrichtung ist der neue Bachelor-Studiengang „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln der Fachhochschule Wiener Neustadt erfolgreich gestartet. Unter der Leitung von Dominik Hölbling erwartet die Studierenden eine Ausbildung mit Schwerpunkt auf moderne Softwaretechnologien und innovative Digitalisierungslösungen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*