Telefonbetrug mit KI-Unterstützung: Voice Cloning als neue Gefahr

Telefonbetrugsversuche sind nicht neu. Neu ist jedoch der Einsatz von künstlicher Intelligenz (KI) und Voice Cloning durch Kriminelle, um täuschend echte Fake-Anrufe zu initiieren. [...]

Heutzutage können Kriminelle recht leicht an die Stimme einer Person gelangen. Soziale Medienplattformen wie TikTok, YouTube, Facebook und Instagram bieten ihnen zahlreiche Quellen. Programme zum Fälschen oder Klonen von Stimmen sind leicht zugänglich und erfordern nur wenige Sprachaufnahmen, um eine halbwegs überzeugende Imitation zu erstellen. (c) stock.adobe.com/Dennis

Telefonbetrugsversuche sind nicht neu. Neu ist jedoch der Einsatz von künstlicher Intelligenz (KI) und Voice Cloning durch Kriminelle, um täuschend echte Fake-Anrufe zu initiieren, warnen die IT-Sicherheitsexperten der PSW GROUP. Mithilfe von Audio-Deepfakes ahmen Telefonbetrüger die Stimmen von Familienmitgliedern, Kollegen oder Freunden nach und täuschen ihre Opfer mit gefälschten Sprachnachrichten, in denen sie um Hilfe bitten. Dabei fordern sie oft große Geldbeträge, etwa für dringend benötigte medizinische Behandlungen oder als Kaution zur Haftentlassung.

„Fake-Anrufe, insbesondere durch Techniken wie Call-ID-Spoofing und Voice Cloning, stellen eine zunehmende Bedrohung dar, die nicht nur lästig, sondern auch gefährlich sein kann. Die Bandbreite der Risiken reicht von Identitätsdiebstahl über Phishing bis hin zu Erpressung und Störung von Diensten. Kriminelle nutzen mittlerweile auch Audio-Deepfakes für hochentwickelte Social-Engineering-Angriffe gegen Unternehmen“, warnt Patrycja Schrenk, Geschäftsführerin der PSW GROUP.

Die IT-Sicherheitsexpertin erklärt: „Heutzutage können Kriminelle recht leicht an die Stimme einer Person gelangen. Soziale Medienplattformen wie TikTok, YouTube, Facebook und Instagram bieten ihnen zahlreiche Quellen. Programme zum Fälschen oder Klonen von Stimmen sind leicht zugänglich und erfordern nur wenige Sprachaufnahmen, um eine halbwegs überzeugende Imitation zu erstellen. Im Darknet beschaffen sich die Angreifer zudem Informationen wie Telefonnummern und persönliche Daten ihrer Opfer, um authentisch zu wirken. Anschließend müssen die Betrüger lediglich die gewünschten Wörter oder Sätze eingeben und können so am Telefon eine gefälschte Unterhaltung führen.“

Patrycja Schrenk, Geschäftsführerin der PSW GROUP: „Fake-Anrufe, insbesondere durch Techniken wie Call-ID-Spoofing und Voice Cloning, stellen eine zunehmende Bedrohung dar, die nicht nur lästig, sondern auch gefährlich sein kann. Die Bandbreite der Risiken reicht von Identitätsdiebstahl über Phishing bis hin zu Erpressung und Störung von Diensten.“ (c) PSW GROUP

Die Erkennung einer KI-generierten Stimme stellt technisch eine Herausforderung dar. Dennoch gibt es einige Anzeichen, die darauf hinweisen können, dass der Anruf nicht authentisch ist. Lücken in der Konversation oder Unnatürlichkeiten im Dialog geben Hinweise darauf, dass die Stimme künstlich erstellt worden ist. „Wer Zweifel an der Identität des Anrufers hat, sollte unbedingt nach zusätzlichen Informationen fragen, um die Identität zu überprüfen. Ein geheimes Codewort oder eine spezifische Frage, die nur die echte Person beantworten kann, kann helfen, den Anruf zu verifizieren“, rät Patrycja Schrenk.

Auflegen und ein bestimmtes Wort unbedingt vermeiden

Misstrauisch gegenüber Anrufen sollte jeder werden, wenn plötzlich Geldbeträge gefordert werden, insbesondere für unerwartete Situationen wie medizinische oder soziale Notfälle. „Die einfachste Reaktion auf einen verdächtigen Anruf ist tatsächlich, einfach aufzulegen oder den Anruf unbeantwortet zu lassen. Das gilt auch, wenn persönliche Informationen gefordert werden oder bei Werbeanrufen“, so Schrenk.

Apropos Werbeanrufe: Das Wort „Ja“ sollte unbedingt vermieden werden, da es von Kriminellen aufgezeichnet und später für betrügerische Zwecke – zum Beispiel zur Zustimmung eines Vertrags – verwendet werden kann. „Gerade bei unbekannten Anrufen neigen wir im privaten Umfeld dazu, uns mit „Ja“ statt mit unserem Namen zu melden. Aber schon dieses „Ja“ kann von Betrügern als Zustimmung missbraucht werden. Mein Rat ist, sich besser mit „Hallo“ zu melden und bei unerwünschten Werbeanrufen klar und bestimmt die Ablehnung zum Ausdruck zu bringen und aufzulegen“, gibt Patrycja Schrenk einen Tipp. Wer doch in die Falle getappt ist und einen Vertrag am Telefon abgeschlossen hat, sollte mit einer Frist von 14 Tagen widerrufen – am besten aber unverzüglich. Flattern dennoch plötzlich Zahlungsaufforderungen ins Haus, hält die Verbraucherzentrale Musterbriefe gegen diese unberechtigten Forderungen bereit.

Betrügerische Anrufe können zudem an die Bundesnetzagentur gemeldet werden, um andere vor ähnlichen Aktivitäten zu schützen. Dabei hilft es, so viele Informationen wie möglich über den Anruf mitzuteilen: Datum, Telefonnummer, Namen der Firma – und idealerweise den des Anrufers. Wer mit betrügerischen Anrufen konfrontiert wird, kann auch seinen Mobilfunkanbieter oder Telefonunternehmen kontaktieren. Sie können dabei helfen, eine Liste von blockierten Nummern zu führen oder bieten Apps oder Dienste an, die betrügerische Anrufe erkennen und blockieren. Darüber hinaus bieten einige Unternehmen auch zusätzliche Sicherheitsfunktionen wie Anrufüberprüfung oder Identitätsbestätigung an.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*