Die Google Threat Intelligence Group gibt im AI Threat Tracker einen Überblick darüber, wie Cyberkriminelle künstliche Intelligenz (KI) einsetzen. Der Bericht zeigt, dass sich die KI-gestützten Fähigkeiten von Bedrohungsakteuren 2025 deutlich weiterentwickelt haben. [...]
Beim Betrachten der allgemeinen Bedrohungslage wurde eine große Veränderung sichtbar, die sich in den letzten Monaten vollzogen hat: Angreifer nutzen künstliche Intelligenz nicht mehr nur zur Steigerung ihrer Produktivität, sondern experimentieren mit neuen Funktionen und Szenarien. Sie setzen in aktiven Kampagnen neuartige, KI-gestützte Malware ein, die das Angriffsverhalten während der Ausführung dynamisch verändert.
Erste Verwendung von „Just-in-Time“-KI in Malware
GTIG hat erstmals Malware-Familien wie PROMPTFLUX und PROMPTSTEAL identifiziert, die während der Ausführung Large Language Models (LLMs) verwenden. Diese Tools generieren dynamisch bösartige Skripte und verschleiern ihren eigenen Code, um nicht erkannt zu werden. Zudem nutzen sie KI-Modelle, um bösartige Funktionen nach Bedarf zu erstellen, anstatt sie fest in die Malware zu programmieren. Diese Entwicklung steckt zwar noch in den Kinderschuhen, stellt jedoch einen bedeutenden Schritt in Richtung autonomer und anpassungsfähiger Malware dar.
Social Engineering zur Umgehung von Sicherheitsmechanismen
Bedrohungsakteure verwenden in ihren Prompts Social-Engineering-Methoden, um Sicherheitsvorkehrungen von KI-Tools zu umgehen. Beispielsweise haben sich Hacker als Studenten in einem „Capture the Flag“-Wettbewerb oder als Cybersicherheitsforscher ausgegeben, um für die Entwicklung ihrer Tools bestimmte Informationen von dem KI-Assistenten Gemini zu bekommen, die sonst gesperrt wären.
Kontinuierliche Erweiterung des gesamten Angriffszyklus
Staatlich geförderte Akteure, beispielsweise aus Nordkorea, Iran oder der Volksrepublik China, nutzen Gemini, um alle Phasen ihrer Aktivitäten zu verbessern. Das reicht von der Aufklärung und Recherche über die Erstellung von Phishing-Ködern bis hin zum technischen Support für ihre „Command and Control“-Maßnahmen und die Datenexfiltration.
Reifer Markt für KI-Tools im Bereich Cyberkriminalität
Der Untergrund-Markt für illegale KI-Tools ist im Jahr 2025 gereift. Google hat mehrere multifunktionale Tools identifiziert, die Phishing, die Entwicklung von Malware und die Erforschung von Schwachstellen unterstützen. Solche Angebote senken die Einstiegshürde für weniger versierte Akteure drastisch.
„„“Angreifer nutzen durchaus gängige KI-Plattformen – doch deren Schutzmechanismen sorgen dafür, dass viele auf Modelle aus dem kriminellen Untergrund zurückzugreifen“, sagt Billy Leonard, Technischer Leiter der Google Threat Intelligence Group. „Solche Tools unterliegen keinen Beschränkungen und können weniger fortgeschrittenen Akteuren einen erheblichen Vorteil verschaffen. Derzeit sind mehrere vom ihnen verfügbar, und wir gehen davon aus, dass sie die Einstiegshürden für viele Kriminelle senken werden.“““
Weitere Informationen finden Sie im vollständigen AI Threat Tracker.

Be the first to comment