Check Point Software Technologies hat seinen neuen AI Security Report veröffentlicht. Darin untersuchen die Sicherheitsforscher von Check Point Research (CPR), wie künstliche Intelligenz die Cyberbedrohungslandschaft verändert – von eigens für Hacker gebauten generativen KI-Modellen im Darknet über Deepfake-Angriffe, Data Poisoning und Konten-Handel bis hin zur Instrumentalisierung generativer KI-Modelle für Cyberattacken und Ransomware allgemein. [...]
So schnell, wie künstliche Intelligenz (KI) in die Geschäftsabläufe von Unternehmen integriert wird, so brisant verändert sie auch die Entwicklung von Cyberbedrohungen. Dieselben Technologien, die Unternehmen helfen, effizienter zu arbeiten und die Entscheidungsfindung zu automatisieren, werden von Hackern als Waffe eingesetzt. Die erste Ausgabe des Check Point Research AI Security Report untersucht, wie Cyberkriminelle nicht nur Mainstream-KI-Plattformen ausnutzen, sondern auch Tools entwickeln und verbreiten, die speziell für bösartige Zwecke entwickelt wurden. In einer immer mehr von KI geprägten digitalen Welt sollten Verteidiger bei der Sicherung von Systemen und Nutzern um die folgenden wachsenden Bedrohungen wissen:
Die wichtigsten Erkenntnisse aus dem Bericht
- KI-Nutzung in Unternehmen: 51 Prozent aller Unternehmen nutzen monatlich KI-Services. In Unternehmensnetzwerken enthalten etwa 1,25 Prozent (1 von 80) aller KI-Prompts hochsensible Daten.
- Kriminelle KI-as-a-service im Dark Web: Der Spam- und Phishing-Dienst GoMailPro, integriert mit ChatGPT, kostet 500 US-Dollar (rund 442 Euro) pro Monat. KI-basierte Telefondienste für Betrugsmaschen kosten rund 20.000 US-Dollar (rund 17.662 Euro) oder werden für 500 US-Dollar (rund 442 Euro) Grundpreis plus 1,50 US-Dollar (rund 1,32 Euro) pro Minute angeboten.
- Handel mit KI-Konten hat stark zugenommen: Über Credential Stuffing, Phishing und Infostealergestohlene Zugangsdaten zu beliebten KI-Diensten wie ChatGPT werden gehandelt, um anonym bösartige Inhalte zu generieren und Beschränkungen zu umgehen.
- KI-gestützte Malware automatisiert und vereinfacht Angriffe: Malware-Gruppen wie FunkSec setzen KI-Tools bereits in mindestens 20 Prozent ihrer Operationen ein, um Schad-Software zu entwickeln und gestohlene Daten effizienter auszuwerten.
- Desinformationskampagne und KI-Manipulation (Poisoning): Das Moskauer Desinformationsnetzwerk Pravda produzierte allein 2024 rund 3,6 Millionen Artikel, um KI-Systeme zu manipulieren. Diese Desinformationen tauchten in führenden westlichen KI-Systemen bei etwa 33 Prozent der Anfragen auf.
Das Risiko von Datenlecks bei der Nutzung von KI
Eine Analyse der von Check Points GenAI Protect gesammelten Daten zeigt, dass 1 von 80 GenAI-Prompts ein hohes Risiko für den Verlust sensibler Daten birgt. Die Daten zeigen auch, dass 7,5 Prozent der Eingabeaufforderungen – etwa eine von dreizehn – potentiell sensible Informationen enthalten, was kritische Herausforderungen für Sicherheit, Compliance und Datenintegrität mit sich bringt. Da Unternehmen zunehmend KI in ihre Abläufe integrieren, ist das Verständnis dieser Risiken wichtiger denn je.
KI-gestützter Identitätsdiebstahl und Social Engineering
Social Engineering ist nach wie vor einer der effektivsten Angriffswege. Mit der Weiterentwicklung künstlicher Intelligenz ändern sich auch die von Bedrohungsakteuren eingesetzten Techniken. Autonome und interaktive Deepfakes verschärfen die Gefahr von Social Engineering, indem sie täuschend echte Imitationen von, aus Opfersicht, bekannten Personen möglich machen. Text- und Audio-Nachahmungen waren nur die erste Stufe und sind bereits so weit entwickelt, dass sie neue Texte in Echtzeit erzeugen können. Video-Imitationen in Echtzeit sind damit nur noch eine Frage der Zeit.
Identitätsüberprüfung auf der Grundlage visueller oder auditiver Hinweise wird durch die rasanten Fortschritte der technischen Möglichkeiten immer unzuverlässiger, so dass ein dringender Bedarf an mehrschichtiger Identitätsauthentifizierung besteht.
Abbildung 1: Werbebanner aus dem Darknet für einen Kontoverifizierungs- und Entsperrungsdienst. (c) Check Point Software Technology
Poisoning und Manipulation von LLM-Daten
CPRs Sicherheitsforscher haben zudem Bedenken hinsichtlich LLM-Poisoning (Large Language Model). Dabei handelt es sich um eine Bedrohung der Cybersicherheit, bei der Trainingsdatensätze so verändert werden, dass sie bösartige Inhalte enthalten und KI-Modelle dazu veranlassen, die schädlichen Inhalte zu replizieren. Trotz der strengen Maßnahmen zur Datenvalidierung, die von großen KI-Anbietern wie OpenAI und Google ergriffen werden, gab es Fälle von erfolgreichen Vergiftungsangriffen, darunter das Hochladen von 100 kompromittierten KI-Modellen auf die Hugging-Face-Plattform (eine Open-Source-Plattform für KI-Modelle).
Zwar betraf Datenvergiftung bis dato in der Regel die Trainingsphase von KI-Modellen, doch dadurch, dass LLMs mittlerweile zunehmend in Echtzeit auf online verfügbare Informationen zugreifen, sind neue Schwachstellen entstanden. Dadurch entsteht ein Risiko, das als Retrieval Poisoning (Abrufvergiftung) bekannt ist. Ein bemerkenswerter Fall betrifft das russische Desinformationsnetzwerk Pravda, das im Jahr 2024 rund 3,6 Millionen Artikel erstellte, um die Antworten von KI-Chatbots zu beeinflussen. Untersuchungen ergaben, dass diese Chatbots in etwa 33 Prozent der Fälle die falschen Darstellungen der russischen Zeitung Pravda wiedergaben, was die große Gefahr des Einsatzes von KI zu Desinformationszwecken unterstreicht.
KI-generierte Malware-Erstellung und Data Mining
KI wird inzwischen im gesamten Lebenszyklus von Cyberangriffen eingesetzt – von der Code-Generierung bis zur Optimierung von Kampagnen. Tools, wie das KI-generierte DDoS-Modul von FunkSec und der benutzerdefinierte Chatbot im Stil von Chat-GPT zeigen, wie Ransomware-Gruppen KI in Operationen integrieren – nicht nur zur Erstellung von Malware, sondern auch für die Automatisierung von Öffentlichkeitsarbeit und Kampagnenbotschaften. KI spielt auch bei der Analyse gestohlener Daten eine entscheidende Rolle.
Infostealer und Data Miner nutzen KI zur schnellen Verarbeitung und Bereinigung umfangreicher Protokolle von Anmeldeinformationen, Sitzungs-Tokens und API-Schlüsseln. Dies ermöglicht eine schnellere Monetarisierung der gestohlenen Daten und eine präzisere Ausrichtung auf künftige Angriffe. In einem Fall warb ein Dark-Web-Dienst namens Gabbers Shop mit dem Einsatz von KI, um die Qualität gestohlener Anmeldedaten zu verbessern und sicherzustellen, dass sie gültig, organisiert und für den Weiterverkauf bereit sind.
Geknackte KI-Modelle als Cyberwaffen
Hacker nutzen KI nicht mehr nur, sondern machen sie zu einem speziellen Werkzeug der Cyberkriminalität. Ein wichtiger Trend ist der Diebstahl und die Kommerzialisierung von LLM-Konten. Durch Credential Stuffing und Infostealer sammeln Angreifer den Zugang zu Plattformen, wie ChatGPT und der API von OpenAI, und verkaufen ihn weiter, um Phishing-Köder, bösartige Skripte und Social-Engineering-Inhalte ohne Einschränkungen zu generieren.
Noch besorgniserregender ist der Anstieg von Dark LLMs – böswillig modifizierte KI-Modelle wie HackerGPT Lite, WormGPT, GhostGPT und FraudGPT. Diese Modelle werden durch Jailbreaking ethischer KI-Systeme oder durch Modifizierung von Open-Source-Modellen, wie DeepSeek, erstellt. Sie wurden speziell entwickelt, um Sicherheitskontrollen zu umgehen, und werden in Dark-Web-Foren als Hacking-Tools vermarktet, oft mit Zugang über Abonnements und Benutzer-Support.
Abbildung 3: Der bösartige KI-Dienst WormGPT wird auf einem Telegram-Kanal beworben. (c) Check Point Software Technology
Was all das für IT-Sicherheitsexperten bedeutet
Der Einsatz von KI in der Internet-Kriminalität ist nicht mehr nur theoretisch. Er entwickelt sich parallel zur allgemeinen Einführung von KI und in vielen Fällen schneller, als sich traditionelle Sicherheitskontrollen anpassen können. Die Ergebnisse des AI Security Report von Check Point legen nahe, dass Verteidiger nun davon ausgehen müssen, dass KI nicht nur gegen sie selbst, sondern auch gegen ihre Systeme, Plattformen und die von ihnen verwalteten Identitäten eingesetzt wird.
Sicherheitsteams sollten damit beginnen, KI-gestützte Abwehrmaßnahmen in ihre Strategien einzubauen – einschließlich KI-gestützter Erkennung, Threat-Intelligence-Systemen, die KI-generierte Artefakte identifizieren können, und aktualisierten Protokollen zur Identitätsüberprüfung, die Sprach-, Video- und Texttäuschungen berücksichtigen.

Be the first to comment