Mehr als eine halbe Million Account-Informationen von ChatGPT-Nutzern im Darknet

Kaspersky-Analyse von Infostealer-Angriffen zwischen 2021 und 2023: 33-facher Anstieg bei gestohlenen Datensätzen von OpenAI- beziehungsweise ChatGPT-Nutzern im Jahr 2023 [...]

Foto: Rupixen/Pixabay

Die Cybersicherheitsexperten von Kaspersky haben im Darknet tausende gestohlene Zugangsdaten für beliebte KI-Tools wie ChatGPT, Grammarly oder Canva entdeckt. Cyberkriminelle können mit Hilfe von Infostealern an die Zugangsdaten von Nutzern gelangen und diese im Darknet zum Verkauf anbieten. Im Vergleich zum Jahr 2022 stieg die Anzahl kompromittierter Account-Informationen für die Dienste des ChatGPT-Entwicklers OpenAI um mehr als das dreißigfache auf fast 688.000 an.

Laut einer aktuellen Bitkom-Studie hält fast jedes zweite Unternehmen in Deutschland (46 Prozent) Künstliche Intelligenz (KI) für ebenso bedeutend für die Büroarbeit wie einst die Einführung des PCs. Allerdings sind KI-Dienste zur Bildbearbeitung und Übersetzung sowie Chatbots auch ein attraktives Ziel für Cyberkriminelle, wie die Analyse der Kaspersky-Experten zeigt.

ChatGPT beliebtes Ziel von Datendieben

Gestohlene Logins für die Dienste des ChatGPT-Entwicklers OpenAI stiegen 2023 im Vorjahresvergleich sprunghaft um das 33-fache auf etwa 664.000 an, insgesamt waren es im Untersuchungszeitraum von 2021 bis 2023 fast 688.000. Nach Launch der vierten ChatGPT-Version im März 2023 war die Nachfrage nach entsprechenden Konten besonders hoch, seitdem entspricht sie jener anderer KI-Dienste.

Außerdem wurden in den drei Jahren rund 1,2 Millionen Zugangsdaten von Canva-Nutzern gestohlen und in Darknet-Foren sowie Telegram-Kanälen verbreitet. Grammarly verzeichnete im selben Zeitraum rund 839.000 kompromittierte Zugangsdaten.

„Die kompromittierten Anmeldeinformationen stammen aus Infostealer-Aktivitäten, einer speziellen Malware-Art, die Nutzerzugänge für Cyberangriffe, Verkäufe im Darknet oder andere schädliche Aktivitäten stiehlt. Infostealer können Geräte von Unternehmen unter anderem über Phishing-E-Mails oder -Websites und öffentliche Webseiten mit schädlichen Inhalten infizieren“, erklärt Yuliya Novikova, Head of Kaspersky Digital Footprint Intelligence.

„Wir erwarten, dass die Nachfrage nach ChatGPT-Konten weiterhin bestehen bleibt. Effiziente Sicherheitslösungen für Unternehmen, die vor Infostealer-Angriffen und anderer Malware schützen, werden immer wichtiger. Unsere Software überwacht beispielsweise kompromittierte Konten im Darknet und benachrichtigt Unternehmen, falls Nutzer ihrer Online-Dienste kompromittiert wurden.“

Kaspersky-Empfehlungen zur Risikominimierung im Falle von Daten-Leaks

  • Das Darknet kontinuierlich auf Posts zu Daten-Leaks überwachen. Hierzu hat Kaspersky einen ausführlichen Leitfaden erstellt.
  • Für jeden Dienst ein einzigartiges Passwort verwenden, um die Auswirkungen eines Kontodiebstahls zu minimieren.
  • Im Falle eines Daten-Leaks auf dedizierte Vorfallreaktionsdienste wie Kaspersky Incident Response Service zurückgreifen, um schnell und effektiv handeln zu können und die Folgen zu minimieren. Solche Dienste helfen dabei, kompromittierte Konten zu identifizieren und die Infrastruktur zukünftig vor ähnlichen Angriffen zu schützen.

Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*