Multi-Agenten-Systeme haben das Potenzial, die Cybersicherheit in Unternehmen maßgeblich zu steigern. Allerdings müssen die KI-Agenten nicht nur intelligent, sondern auch interoperabel, vertrauenswürdig und resilient sein. Ontinue nennt die größten Herausforderungen und liefert Lösungsansätze. [...]
Künstliche Intelligenz ist im Cybersecurity-Bereich bereits seit Jahren im Einsatz. Mit Agentic AI ergeben sich nun neue Möglichkeiten für den Aufbau und Betrieb eines modernen Security Operations Center (SOC) – und das keine Sekunde zu früh: Die Geschwindigkeit, mit der Cyberattacken stattfinden, die Komplexität der Angriffe und deren Umfang nehmen ständig zu. Security-Operations-Teams setzen daher zunehmend auf Multi-Agenten-Systeme, um ihre Fähigkeiten zu erweitern. Bei der Einführung multipler KI-Agenten, die autonom auf ein Ziel hinarbeiten, gibt es allerdings auch Herausforderungen. Ontinue nennt die sechs größten und zeigt, wie Unternehmen sie bewältigen können.
Herausforderung 1: Orchestrierung
Damit Multi-Agenten-Systeme im Kontext eines Security Operations Center effektiv funktionieren können, müssen Security-Operations-Teams die KI-Agenten nahtlos über sämtliche Systeme hinweg koordinieren – eine komplexe Aufgabe. Dazu bedarf es robuster Kommunikationsprotokolle, die Datenstaus und Ressourcenprobleme verhindern. Überdies benötigen KI-Agenten eine einheitliche Terminologie für die Verarbeitung von Informationen aus unterschiedlichsten Quellen wie SIEM (Security Incident and Event Management)-Plattformen oder EDR (Endpoint Detection and Response)-Systemen.
Herausforderung 2: Skalierbarkeit
Multi-Agenten-Systeme bieten eine hohe Skalierbarkeit, was jedoch im Umkehrschluss zu immer mehr unerwünschten Wechselwirkungen führen kann – ein Paradoxon. Entwickler von Multi-Agenten-Systemen müssen daher einige Vorkehrungen treffen, um Probleme zu vermeiden. Dazu gehören etwa dynamische Lastverteilung (Load Balancing), ein sinnvolles Zustandsmanagement und die Nutzung von Orchestrierungs-Frameworks. Nur mit einem ausgeklügelten Systemdesign kann ein Multi-Agenten-System auch bei wachsender Größe stabil bleiben.
Herausforderung 3: Autonomie ohne Kontrollverlust
Das Alleinstellungsmerkmal von Multi-Agenten-Systemen ist deren Autonomie. Die kann jedoch gerade im Cybersecurity-Bereich auch Gefahren mit sich bringen. Security-Operations-Teams müssen daher die richtige Balance zwischen der Eigenständigkeit der verwendeten KI-Agenten und notwendiger Kontrollen finden, um Fehlerketten zu vermeiden. Wichtig ist insbesondere, belastbare Entscheidungs-Frameworks, Logikvalidierungen und eine Sicherheitsmaßnahme nach dem „Human-in-the-Loop“-Ansatz in das Multi-Agenten-System zu implementieren. Das System sollte zudem feste Regeln vorgeben, wann ein KI-Agent autonom agieren darf und wann nicht.
Herausforderung 4: Halluzinationen
Halluzinationen sind eine der größten Herausforderungen generativer KI-Anwendungen – so auch bei Multi-Agenten-Systemen. Für den Cybersecurity-Bereich bedeutet es, dass KI-Agenten möglicherweise harmlose Vorgänge als Bedrohungen einstufen können (False Positives) oder echte Angriffe als unbedenklich erachten (False Negatives). Ursachen können unvollständige Trainingsdaten, schlecht abgestimmte Modelle oder fehlerhafte Logikketten zwischen einzelnen Agenten sein. Um solche Halluzinationen zu verhindern, braucht es robuste Grounding-Techniken, sorgfältige Systemvalidierung und enge Feedback-Schleifen. KI-Agenten sollten gegenseitig ihre jeweiligen Schlussfolgerungen prüfen und im Zweifel die menschlichen Security-Operations-Spezialisten benachrichtigen.
Herausforderung 5: Systemsicherheit
Da KI-Agenten eine potenzielle Erweiterung der Angriffsfläche für Hacker darstellen, müssen sie nicht nur das System schützen, sondern auch abgesichert werden. Maßnahmen dafür umfassen unter anderem die Verschlüsselung der Kommunikation zwischen den Agenten, strikte Zugriffskontrollen sowie das Audit-Logging auf Agentenebene. Darüber hinaus müssen Security-Operations-Teams ihr Multi-Agenten-System nach dem Privacy-by-Design-Ansatz entwickeln.
Herausforderung 6: Interoperabilität
Technologie-Stacks im Cybersecurity-Bereich sind oft fragmentiert. KI-Agenten müssen daher mit einer Vielzahl von Plattformen interoperabel und in der Lage sein, Daten in Echtzeit zu übersetzen und zu normalisieren. Zudem sind modulare, erweiterbare Frameworks notwendig, die das Hinzufügen neuer KI-Agenten oder Konnektoren ermöglichen, ohne das Gesamtsystem zu stören.
Theus Hossmann ist Chief Technology Officer bei Ontinue. (c) Ontinue
„Neben technischen Herausforderungen bei der Einführung von Multi-Agenten-Systemen bleibt der Mensch die größte Hürde“, betont Theus Hossmann, Chief Technology Officer bei Ontinue. „Menschliche Cybersecurity-Analysten sollten den KI-Agenten vertrauen können. Dazu bedarf es Transparenz und Nachvollziehbarkeit. Aus diesem Grund müssen entsprechende Systeme nicht nur Antworten liefern, sondern auch die zugrunde liegende Beweisführung offenlegen. Diese Transparenz in Verbindung mit der Möglichkeit der Analysten, jederzeit einzugreifen, schafft Vertrauen und macht KI-Agenten zu wertvollen Verbündeten im Kampf gegen Cyberkriminelle.“

Be the first to comment