Agentic AI: Warum Autonomie und Sichtbarkeit Hand in Hand gehen

Mit dem Aufkommen von Agentic AI rückt ein völlig neues Kapitel der Automatisierung in greifbare Nähe. Doch je eigenständiger KI-Systeme agieren, desto schwieriger wird es, ihre Entscheidungen nachzuvollziehen und zu kontrollieren. Ein exklusiver Gastbeitrag von Tiho Saric, Senior Sales Director bei Gigamon. [...]

Tiho Saric, Senior Sales Director bei Gigamon. (c) Gigamon
Tiho Saric, Senior Sales Director bei Gigamon. (c) Gigamon

Agentic AI beschreibt Systeme, die selbstständig handeln, planen und so auf konkrete Ziele hinarbeiten. Dafür treffen sie eigenständig Entscheidungen und lernen stetig dazu. Sie basieren zwar auf Large Language Models (LLMs), aber anders als klassische Chatbots wie ChatGPT greifen sie nicht allein auf Textwissen zurück. Stattdessen kombinieren sie interne und externe Datenquellen wie Unternehmensanwendungen, Datenbanken oder Web-APIs und entwickeln daraus Strategien.

Im Zuge seiner Tätigkeit zerlegt der Agent komplexe Aufgaben in Teilaufgaben, führt diese selbst aus oder delegiert sie an spezialisierte Sub-Agenten – und das mit minimalem menschlichem Eingriff. Durch kontinuierliches Lernen aus historischen und Live-Daten erkennt das System Muster, passt sich dynamisch an und korrigiert Fehler, sobald sich die Umgebung verändert. Agentic AI unterscheidet sich damit fundamental von linearen, regelbasierten Automatisierungsprozessen.

In der Praxis eröffnet das in fast allen Branchen enorme Potenziale. So könnten agentische Systeme zum Beispiel im Gesundheitswesen Patientendaten analysieren und personalisierte Behandlungspläne erstellen. In der Logistik ließen sie sich für die Bestandsoptimierung, das Lieferkettenmanagement oder das Antizipieren von Engpässen einsetzen. Und im Finanzwesen könnten sie Transaktionen laufend überwachen und Hinweise auf betrügerische Geldbewegungen anhand von Anomalien identifizieren. Das Ergebnis sind schnellere, präzisere Entscheidungen und damit eine neue Dimension operativer Effizienz.

Agentic AI in der Cybersicherheit

Besonders spannend ist der Einsatz von Agentic AI in der Cybersicherheit. Hier treffen laufend große, vielfältige Datenmengen, hohe Geschwindigkeit, komplexe Netzwerkumgebungen und dynamische Bedrohungen aufeinander. Dieses Umfeld ist wie gemacht für selbstlernende Systeme. So eignet sich ein Agentic-AI-System ideal für die automatisierte Threat Detection. Die Agenten analysieren kontinuierlich ihr Umfeld, erkennen Anomalien und anormales Verhalten, lernen aus vergangenen Vorfällen und passen ihre Erkennungsstrategien dynamisch an. Durch den Austausch von Kontextinformationen über verschiedene Systeme hinweg lassen sich echte Sicherheitsvorfälle schnell identifizieren und eindämmen. Im Rahmen der Incident Response können Agenten im Falle eines Angriffs sofort handeln, indem sie zum Beispiel verdächtige Aktivitäten untersuchen und betroffene Endpunkte in kürzester Zeit isolieren. Dadurch wird die Ausbreitung von Bedrohungen minimiert, die kritische Infrastruktur bleibt geschützt.

Auch bei der Alert Triage zeigt Agentic AI ihre Stärke. Klassische Sicherheitslösungen erzeugen häufig unzählige Alarme – viele davon (unbegründete) Fehlmeldungen. KI-Agenten können diese Flut autonom analysieren, priorisieren, irrelevante Meldungen filtern und das Team nur über kritische Vorfälle informieren. Das reduziert nicht nur die sogenannte Alert Fatigue, sondern verschafft Sicherheitsteams mehr Zeit für strategische Aufgaben. Weitere Einsatzfelder reichen von der automatisierten Erkennung von Fehlkonfigurationen bis hin zur Risikoanalyse von Drittanbietern. Kurz gesagt: Agentic AI kann die gesamte Sicherheitsarchitektur proaktiver, effizienter und resilienter gestalten – vorausgesetzt, sie ist vollständig einsehbar.

Kontrolle durch Kontext: Warum Sichtbarkeit zur Pflicht wird

Und da liegt der entscheidende Punkt: Agentic AI funktioniert nur so gut, wie die Datenbasis, auf der sie Entscheidungen trifft. Doch viele Unternehmen verfügen über fragmentierte Einblicke in ihre IT-Landschaft. Oftmals verlassen sie sich lediglich auf klassische Monitoring-Tools, die zwar Symptome sicherheitsrelevanter Vorfälle aufzeigen, aber nicht die eigentlichen, meist tieferliegenden Ursachen. Doch für agentische Systeme, die autonom handeln sollen, ist das zu wenig.

Deep Observability schließt diese Lücke. Dieser Sichtbarkeitsansatz sammelt und analysiert Metriken, Events, Logs und Traces (MELT), verbindet sie zusätzlich mit Netzwerk-Telemetriedaten und macht so alle Datenströme – einschließlich verschlüsselten oder lateralen Traffics – sichtbar. Dadurch entsteht eine durchgängige, kontextreiche Echtzeitsicht bis hinunter auf Netzwerkebene (Deep Observability). Diese Sichtbarkeit spielt gleich in mehrfacher Hinsicht eine wichtige Rolle:

  1. Vertrauen und Nachvollziehbarkeit: Agentic AI agiert weitgehend autonom. Ohne Observability bleibt oft unklar, auf welche Informationen sie zugreift oder wie Entscheidungen zustande kommen. Deep Observability fungiert hier als eine Art transparenter Kontrollmechanismus: Sie macht sichtbar, welche Daten genutzt werden, wie Agenten miteinander und mit anderen Instanzen interagieren und ob regulatorische Vorgaben eingehalten werden.
  2. Datenqualität und Kontext: Nur wer den kompletten Datenfluss offenlegt und versteht, kann Agenten mit qualitativ hochwertigen, vollständigen und kontextualisierten Informationen versorgen. Erst dann lassen sich autonome Entscheidungen wirklich in die Tat umsetzen und sie basieren nicht bloß auf einem einfachen Aktion-Reaktion-Prinzip.
  3. Beschleunigte Reaktion: Erst durch Echtzeiteinblicke in das gesamte Netzwerk können sicherheitsrelevante Anomalien frühzeitig erkannt und Gegenmaßnahmen automatisch eingeleitet werden. Das senkt die Reaktionszeit drastisch und minimiert den potenziellen Schaden.
  4. Risikomanagement und Compliance: Fehlende Sichtbarkeit kann zu Compliance-Verstößen, Fehlentscheidungen oder Systemausfällen führen. Deep Observability liefert die Grundlage, um das Verhalten von Agenten zu überprüfen, Manipulationen zu erkennen und Prozesse konsistent zu halten.

Deep Observability wird damit zu einem strategischen Werkzeug, das die Aufgabe des Kontrolleurs und Motors zugleich übernimmt. Einerseits ermöglicht sie es Sicherheits- und IT-Teams hinter die Blackbox zu blicken und Kontexte zu verstehen, andererseits kann das Agentic-AI-System sein Cybersecurity-Potenzial voll ausschöpfen.

Fazit: Der Schlüssel zu verantwortungsvoller Agentic AI

Gartner prognostiziert, dass ein Drittel aller Unternehmensanwendungen bis 2028 agentische KI enthalten wird. Diese Entwicklung markiert nicht nur den nächsten Evolutionsschritt der KI, sondern unterstreicht auch, dass Autonomie Verantwortung und somit Sichtbarkeit braucht. Denn je komplexer und eigenständiger KI-Systeme agieren, desto größer wird die Notwendigkeit, ihre Entscheidungen nachvollziehen zu können. Deep Observability ist der Schlüssel, der all das miteinander verbindet.

Nur wer seine IT-Landschaft bis auf Netzwerkebene versteht, kann KI-Agenten mit dem richtigen Kontext versorgen und sicherstellen, dass ihre Entscheidungen nachvollziehbar, effizient und compliant bleiben. Erst dann wird aus Agentic AI ein vertrauenswürdiger Partner und kein unberechenbarer Akteur in der digitalen Welt.

*Tiho Saric ist Senior Sales Director bei Gigamon.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*