Hype um ChatGPT macht Cyberkriminelle kreativ

Palo Alto Networks entdeckt eigenen Angaben zufolge zahlreiche Fallen und Betrugsversuche rund um das populäre KI-Angebot. [...]

Zwischen November 2022 und Anfang April 2023 verzeichnete Unit 42 einen Anstieg der monatlichen Registrierungen für Domains im Zusammenhang mit ChatGPT um 910 Prozent. (c) Unsplash
Zwischen November 2022 und Anfang April 2023 verzeichnete Unit 42 einen Anstieg der monatlichen Registrierungen für Domains im Zusammenhang mit ChatGPT um 910 Prozent. (c) Unsplash

ie Forscher von Unit 42 überwachen die Trendthemen, neu registrierten Domains und besetzten Domains im Zusammenhang mit ChatGPT, da es eine der am schnellsten wachsenden Verbraucheranwendungen in der Geschichte ist. Die dunkle Seite dieser Popularität ist, dass ChatGPT auch die Aufmerksamkeit von Betrügern auf sich zieht, die versuchen, von der Verwendung von Formulierungen und Domainnamen zu profitieren, die im Zusammenhang mit der Website erscheinen.

Zwischen November 2022 und Anfang April 2023 verzeichnete Unit 42 einen Anstieg der monatlichen Registrierungen für Domains im Zusammenhang mit ChatGPT um 910 Prozent. Außerdem beobachtete Unit 42 in diesem Zeitraum ein 17.818-prozentiges Wachstum verwandter Squatting-Domains aus DNS-Sicherheitsprotokollen. Unit 42 verzeichnete außerdem täglich bis zu 118 Erkennungen bösartiger URLs im Zusammenhang mit ChatGPT, die aus dem Datenverkehr erfasst wurden.

In der Analyse stellt Unit 42 mehrere Fallstudien vor, um die verschiedenen Methoden zu veranschaulichen, mit denen Betrüger Benutzer dazu verleiten, Malware herunterzuladen oder vertrauliche Informationen weiterzugeben. Als OpenAI am 1. März 2023 seine offizielle API für ChatGPT veröffentlichte, hat Unit 42 eine zunehmende Anzahl verdächtiger Produkte beobachtet, die es verwenden. Daher hebt Unit 42 die potenziellen Gefahren der Verwendung von Nachahmer-Chatbots hervor, um ChatGPT-Benutzer zu ermutigen, sich solchen Chatbots mit einer defensiven Denkweise zu nähern.

Während OpenAI seinen rasanten Aufstieg zu einer der bekanntesten Marken im Bereich der künstlichen Intelligenz begann, beobachtete Unit 42 mehrere Fälle von Bedrohungsakteuren, die sich in freier Wildbahn besetzende Domains registrierten und nutzten, die „openai“ und „chatgpt“ als ihre Domain verwendeten Name (z. B. openai[.]us, openai[.]xyz und chatgpt[.]jobs). Die meisten dieser Domains hosten Anfang April 2023 nichts Bösartiges, aber es ist besorgniserregend, dass sie nicht von OpenAI oder anderen authentischen Domain-Verwaltungsunternehmen kontrolliert werden. Sie könnten jederzeit missbraucht werden, um Schaden anzurichten.

Während der Recherche beobachtete Unit 42 mehrere Phishing-URLs, die versuchten, sich als offizielle OpenAI-Websites auszugeben. Typischerweise erstellen Betrüger eine gefälschte Website, die das Erscheinungsbild der offiziellen ChatGPT-Website genau nachahmt, und verleiten dann Benutzer dazu, Malware herunterzuladen oder vertrauliche Informationen zu teilen.

Darüber hinaus können Betrüger ChatGPT-bezogenes Social Engineering für Identitätsdiebstahl oder Finanzbetrug verwenden. Obwohl OpenAI Benutzern eine kostenlose Version von ChatGPT zur Verfügung stellt, führen Betrüger Opfer zu betrügerischen Websites und behaupten, dass sie für diese Dienste bezahlen müssen. Beispielsweise versuchen gefälschte ChatGPT-Sites, Opfer dazu zu verleiten, ihre vertraulichen Informationen wie Kreditkartendaten und E-Mail-Adressen preiszugeben. Unit 42 bemerkte auch, dass einige Betrüger die wachsende Popularität von OpenAI für Krypto-Betrug ausnutzen.

Während ChatGPT in diesem Jahr zu einer der beliebtesten Anwendungen geworden ist, sind auch immer mehr Nachahmer-KI-Chatbot-Anwendungen auf dem Markt erschienen. Einige dieser Anwendungen bieten ihre eigenen großen Sprachmodelle an, andere behaupten, dass sie ChatGPT-Dienste über die am 1. März angekündigte öffentliche API anbieten. Die Verwendung von Nachahmer-Chat-Bots könnte jedoch die Sicherheitsrisiken erhöhen. Vor der Veröffentlichung der ChatGPT-API gab es mehrere Open-Source-Projekte, die es Benutzern ermöglichten, sich über verschiedene Automatisierungstools mit ChatGPT zu verbinden. Angesichts der Tatsache, dass ChatGPT in bestimmten Ländern oder Regionen nicht zugänglich ist, könnten Websites, die mit diesen Automatisierungstools oder der API erstellt wurden, eine beträchtliche Anzahl von Benutzern aus diesen Bereichen anziehen. Dies bietet Bedrohungsakteuren auch die Möglichkeit, ChatGPT zu monetarisieren, indem sie ihren Dienst vertreten.

Die wachsende Popularität von ChatGPT weltweit hat es zu einem Ziel für Betrüger gemacht. Unit 42 hat einen deutlichen Anstieg der Anzahl neu registrierter Domains und besetzter Domains im Zusammenhang mit ChatGPT festgestellt, die potenziell von Betrügern für böswillige Zwecke ausgenutzt werden könnten. Um sicher zu bleiben, sollten ChatGPT-Benutzer bei verdächtigen E-Mails oder Links im Zusammenhang mit ChatGPT vorsichtig sein. Darüber hinaus bringt die Verwendung von Nachahmer-Chatbots zusätzliche Sicherheitsrisiken mit sich. Benutzer sollten ChatGPT immer über die offizielle OpenAI-Website aufrufen.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*