EncryptHub nutzt ChatGPT und enttarnt sich durch OPSEC-Fehler

KI-Technologien eröffnen völlig neue Möglichkeiten. Gleichzeitig geraten diese Werkzeuge jedoch auch verstärkt ins Visier von Cyberkriminellen. Sie nutzen KI nicht nur zur Automatisierung technischer Angriffe, sondern auch zur Verschleierung ihrer Spuren oder für soziale Manipulation. Der Grat zwischen innovativer Technologie und kriminellem Missbrauch ist schmal – und mitunter fatal für die Täter selbst. [...]

Ein Cyberkrimineller nutzte ChatGPT gezielt zur Unterstützung seiner illegalen Machenschaften – scheiterte jedoch an gravierenden Versäumnissen in der eigenen operativen Sicherheit. (c) stock.adobe.com/Sergey Nivens

Wie ein KI-gestützter Angreifer sich selbst entlarvt: Ein aktueller Bericht des Threat-Intelligence-Teams KrakenLabs von Outpost24 beleuchtet einen besonders brisanten Fall: Ein einzelner Cyberkrimineller, bekannt unter dem Alias „EncryptHub“, nutzte ChatGPT gezielt zur Unterstützung seiner illegalen Machenschaften – scheiterte jedoch letztlich an gravierenden Versäumnissen in der eigenen operativen Sicherheit (OPSEC), die zu seiner Identifizierung führten.

Zentrale Erkenntnisse des Berichts

  • Gezielter Missbrauch von KI: EncryptHub nutzte ChatGPT, um Schadsoftware zu entwickeln, Command-and-Control-Server zu konfigurieren, professionelle Texte für Cybercrime-Foren zu erstellen und Beratung für Angriffsstrategien einzuholen.
  • Massive OPSEC-Verstöße: Durch Nachlässigkeiten bei der Passwortsicherheit, schlecht gesicherte Serververzeichnisse und öffentlich zugängliche persönliche Dateien konnten die Analysten von KrakenLabs tiefe Einblicke in seine Identität und seine Arbeitsweise gewinnen.
  • Doppelleben mit ethischer Fassade: Besonders brisant: Unter dem Namen „SkorikARI“ meldete derselbe Akteur Sicherheitslücken an Microsoft und wurde für zwei CVEs (CVE-2025-24071 und CVE-2025-24061) sogar offiziell genannt – während er gleichzeitig auf einschlägigen Darknet-Marktplätzen aktiv war.
  • Menschliche Dimension sichtbar: Die Chatverläufe mit ChatGPT deuten auf eine innere Zerrissenheit hin: Zwischen dem Wunsch nach Anerkennung als Sicherheitsexperte und dem Drang, durch kriminelle Aktivitäten schnelles Geld zu verdienen.

Der Fall ist ein eindrückliches Beispiel dafür, wie KI-basierte Tools als „digitale Komplizen“ missbraucht werden können – und wie wichtig es ist, KI in Sicherheitsstrategien einzubeziehen. Gleichzeitig zeigt er, dass selbst technisch versierte Angreifer nicht vor menschlichen Fehlern gefeit sind.


Mehr Artikel

News

Mehr als nur ein Compliance-Kriterium: Cybersicherheit ist eine Angelegenheit der Unternehmenskultur

Ein Blick in die Praxis zeigt: IT-Sicherheit scheitert nicht an Technologien oder Fehlverhalten, sondern bereits grundsätzlich an einem Mangel an Unternehmenskultur. Wenn Cybersicherheit in einer Organisation nur als eine schlecht durchgesetzte Aufgabe von anderen für andere verstanden wird, entsteht vielleicht eine oberflächliche Compliance, aber keine wirkliche Cyberresilienz. […]

Michael Maier, Director Austria iteratec (c) iteratec
Kommentar

KI-Transformation in Unternehmen – Eine Revolution in fünf Schritten 

Wie weit wird die Evolution der Künstlichen Intelligenz gehen und wie wird sie sich auf Wirtschaft und Gesellschaft als Ganzes auswirken? Was für Privatpersonen interessante Fragen sind, sind für Unternehmer existenzielle Themen, schließlich müssen diese wirtschaftlich gegenüber Konkurrenten bestehen, von denen viele bereits an einer effektiven Nutzung von KI arbeiten. […]

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*