Agentic AI: Revolution in IT-Sicherheit und Automatisierung

KI-Agenten revolutioniere Security, Prozesse und Compliance – mit Chancen und Herausforderungen für Unternehmen. Udo Schneider, Governance, Risk & Compliance Lead, Europe bei Trend Micro, hat im Rahmen eines ITWelt.at-Roundtables erläutert, wie Agentic AI die Handlungsweise und Entwicklungspotenziale von KI revolutioniert. [...]

Udo Schneider, Governance, Risk & Compliance Lead, Europe bei Trend Micro (c) timeline/Rudi Handl
Udo Schneider, Governance, Risk & Compliance Lead, Europe bei Trend Micro (c) timeline/Rudi Handl

Künstliche Intelligenz ist längst kein Zukunftsszenario mehr, sondern prägt als treibende Kraft digitale Geschäftsmodelle und Sicherheitsstrategien. Doch während klassische KI-Systeme oft auf menschliche Steuerung angewiesen sind, verändert Agentic AI das Spiel grundlegend: Sie handelt autonom, lernt kontinuierlich dazu und eröffnet völlig neue Potenziale für Automatisierung und Effizienzsteigerung. Gleichzeitig stellt diese Entwicklung Unternehmen vor neue Herausforderungen – etwa bei IT-Sicherheit, Nachvollziehbarkeit und regulatorischer Compliance. Udo Schneider, Governance, Risk & Compliance Lead, Europe bei Trend Micro, hat im Rahmen des Roundtables „Übernehmen die KI-Agenten?“ erläutert, welche Chancen und Risiken Agentic AI für Security, Governance und Arbeitswelt birgt und wie Unternehmen sicherstellen können, dass sie den regulatorischen wie ethischen Anforderungen des EU AI Act gerecht werden.

Wie unterscheidet sich Agentic AI grundlegend von herkömmlichen KI-Systemen in Hinblick auf ihre Handlungsweise und Entwicklungspotenziale?

Ich möchte dazu auf die beiden Aspekte Autonomie und Lernen eingehen, da sie zentrale Unterscheidungsmerkmale von KI-Agenten bzw. Agentic AI darstellen. Im Gegensatz zu klassischen Systemen, bei denen der Mensch eine Aktion anstößt und auf das Ergebnis wartet, arbeitet ein agentenbasiertes System autonom: Es entwickelt eigenständig Lösungswege und stößt selbstständig Aktionen an. Das bedeutet, Prozesse laufen kontinuierlich im Hintergrund ab und das System kann sich durch Lernen und Weiterentwicklung stetig verbessern.

Der wesentliche Unterschied bei Agentic AI ist also, dass nicht mehr in allen Fällen ein „Human in the Loop“ erforderlich ist. Einmal sinnvoll konfiguriert, kann das System weitgehend autonom agieren. Das hebt Agentic AI deutlich von bisherigen KI-Anwendungen ab und eröffnet völlig neue Möglichkeiten der Automatisierung und Effizienzsteigerung.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Wie beurteilen Sie das Spannungsfeld zwischen Innovationsgeschwindigkeit und IT-Sicherheit bei der Entwicklung von Agentic AI?

Ich sehe das Thema Security ein wenig als „Engelchen-Teufelchen-Szenario“. Einerseits möchte ich nicht, dass Security als Hemmschuh wahrgenommen wird – denn Agentic AI bietet unserer Industrie und Gesellschaft enorme Chancen und birgt ein enormes Potenzial. Andererseits erinnere ich mich an frühere Entwicklungen, beispielsweise bei Cloud-Technologien und Cloud-Sicherheit, aber auch bei anderen IT-Themen: Oft wurden im Zuge eines Hypes – ob gerechtfertigt oder nicht – Proof of Concepts (POCs) und Lösungen schnell zusammengebaut, Komponenten ohne klare Struktur und ohne Berücksichtigung grundlegender Sicherheitsaspekte miteinander verbunden.

Wichtige Basisfunktionen wie Sicherheit, Accounting, Verschlüsselung und Authentifizierung wurden dabei häufig vernachlässigt. Im Eifer des Gefechts, möglichst schnell am Markt zu sein, gerät Security oft aus dem Fokus – ein Fehler, den wir bereits in der Vergangenheit bei Cloud-Lösungen, E-Mail-Systemen und anderen IT-Infrastrukturen gemacht haben.

Aus Security-Sicht ist es mein ausdrücklicher Wunsch, dass wir diesen Fehler bei Agentic AI nicht wiederholen. Es ist entscheidend, dass Sicherheitsfunktionen wie Verschlüsselung, Authentifizierung und Telemetrie von Anfang an in den KI-Plattformen integriert sind. Anbieter sollten Lösungen bereitstellen, bei denen Security „by Design“ gewährleistet ist.

Agentic AI ist eine zu bedeutende und zukunftsweisende Technologie, als dass wir sie durch mangelnde Sicherheitsvorkehrungen kompromittieren dürften. Daher muss Security von Beginn an mitgedacht und als integraler Bestandteil jeder Lösung umgesetzt werden.

Wie können Unternehmen sicherstellen, dass Entscheidungen ihrer KI-Systeme nachvollziehbar und regelkonform dokumentiert werden?

Die Nachvollziehbarkeit, warum ein System eine bestimmte Entscheidung getroffen hat, ist nur dann gegeben, wenn die entsprechenden Eingabe- und Ausgabeparameter in der Plattform protokolliert und ausgewertet werden. Nur so kann ich im Nachhinein wirklich nachvollziehen, wie eine Entscheidung zustande gekommen ist. Werden Systeme jedoch ohne klare Struktur und Logging „zusammengefrickelt“, fehlt diese Transparenz häufig.

Udo Schneider,
Governance, Risk & Compliance Lead,
Europe bei Trend Micro
(c) timeline/Rudi Handl

Gerade in Europa wird das Thema Governance immer wichtiger – insbesondere im Hinblick auf die europäische KI-Verordnung (AI Act). Unternehmen müssen nachvollziehbar dokumentieren können, wie sich ihre KI-Modelle verhalten haben. Es ist also nicht nur wünschenswert, sondern aus regulatorischer Sicht zwingend erforderlich, dass Unternehmen erklären und nachweisen können, wie ihre KI-Systeme zu bestimmten Entscheidungen gelangt sind.

Das bedeutet: Es reicht nicht aus, auf die Frage „Warum hat das Agentic-AI-System so entschieden?“ mit „Keine Ahnung“ zu antworten. Vielmehr ist es notwendig, Konformität zu erklären, Zertifizierungen vorzunehmen und das Verhalten der Modelle transparent zu dokumentieren. Die Nachvollziehbarkeit ist somit ein zentraler Bestandteil der verantwortungsvollen und gesetzeskonformen Nutzung von KI.

Wie nutzt Trend Micro Agentic AI, um die Analyse und Bearbeitung von Sicherheitsvorfällen für Ihr Team effizienter zu machen?

Bei Trend Micro verfügen wir über eine große Menge strukturierter Daten – insbesondere im Bereich Bedrohungsakteure und Angriffe. Das sind ideale Voraussetzungen, um mit Agentic AI zu arbeiten. Unsere Use Cases sind vergleichsweise klar definiert. Angefangen hat es mit dem Einsatz von Large Language Models, um interaktiv mit großen Datenmengen zu arbeiten. Ein Beispiel: Mithilfe eines KI-Companions können wir komplexe Sachverhalte – etwa die Bedeutung bestimmter Bedrohungen – verständlich und menschenfreundlich erklären.

Ein zentrales Ziel ist es, die Vielzahl an Vorfällen, die in einem Security Operations Center (SOC) oder Network Operations Center (NOC) anfallen, für die Mitarbeitenden überschaubar und effizient bearbeitbar zu machen. Konkret bedeutet das: Bei einem Vorfall kann Agentic AI dem Analysten bereits alle relevanten Daten aufbereitet zur Verfügung stellen. Das ist ein klassischer Agentic-AI-Use Case: Ein Agent wertet selbstständig Daten aus und liefert dem Analysten eine umfassende Recherche, sodass dieser fundiert entscheiden kann („Human in the Loop“).

Je nach Kundenwunsch kann das System sogar so weit gehen, dass bestimmte Entscheidungen automatisiert getroffen werden. Das ist eine Option, die manche Kunden nutzen möchten, andere wiederum nicht.

Gerade weil wir mit strukturierten Daten arbeiten, profitieren wir besonders stark von Agentic AI: Sie reduziert die Anzahl der Aufgaben, für die zwingend menschliches Eingreifen erforderlich ist. Unser Ziel ist es dabei nicht, den Menschen aus der Verantwortung zu nehmen, sondern ihn gezielt dort einzusetzen, wo menschliche Intuition und Erfahrung wirklich gefragt sind, während Routineaufgaben automatisiert werden.

So optimieren wir unsere Geschäftsprozesse und stellen sicher, dass unsere Analysten ihre Expertise genau dort einbringen können, wo sie den größten Mehrwert bietet.

Wie hat sich der Umgang mit Künstlicher Intelligenz im Bereich IT-Security verändert, und welche Rolle spielt heute die Wahl zwischen Cloud- und On-Premises-Lösungen?

Die grundsätzliche Diskussion „KI – ja oder nein?“ wird heute kaum noch geführt. Künstliche Intelligenz ist längst integraler Bestandteil von Prozessen und Produkten, insbesondere in der IT-Security ist ein Verzicht praktisch undenkbar.

Interessant finde ich, dass selbst Kunden aus sensiblen Bereichen – etwa Behörden oder dem militärischen Sektor – mittlerweile großes Interesse an KI-Lösungen zeigen. Häufig äußern sie jedoch den Wunsch, diese Systeme „on premise“ zu betreiben. Dabei bedeutet „on premise“ nicht etwa in einem europäischen Hyperscaler-Rechenzentrum, sondern tatsächlich im eigenen, streng gesicherten Rechenzentrum vor Ort.

Die Flexibilität, zwischen Cloud- und On-Premises-Lösungen zu wählen, ist entscheidend: Unkritische oder nicht streng vertrauliche Workloads können problemlos in die Cloud ausgelagert werden. Kritische oder hochsensible Workloads – etwa eigene, selbst trainierte Large Language Models – verbleiben hingegen im eigenen Rechenzentrum, betrieben auf speziell dafür ausgelegter Hardware (z. B. Nvidia HBM-Beschleuniger). Hierbei handelt es sich keineswegs um einfache PC-Setups, sondern um hochprofessionelle KI-Infrastrukturen.

Die Entscheidung, ob eine Anwendung lokal oder in der Cloud betrieben wird, hängt also maßgeblich von der Kritikalität und Sensitivität der jeweiligen Workloads ab. Das ist auch ein zentrales Thema im Bereich Governance: Unternehmen müssen sorgfältig bewerten, welche Anwendungen aus Effizienzgründen ausgelagert werden können und welche zwingend intern verbleiben müssen.

Zusammengefasst: Die Frage, ob KI aus Security-Sicht eingesetzt wird, stellt sich heute nicht mehr – das ist längst selbstverständlich. Die eigentliche Herausforderung besteht darin, die notwendige Flexibilität zu bieten und für jede Anwendung die passende Betriebsform zu wählen: lokal im eigenen Rechenzentrum oder beim Dienstleister in der Cloud.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Wie wirkt sich der Einsatz von Agentic AI auf die Kostenstruktur und das Geschäftsmodell von Unternehmen aus, die KI-Technologien in ihre Dienstleistungen integrieren?

Ich möchte kurz einen Schritt auf die Anbieterseite machen: Wir setzen Agentic AI bereits in unseren Systemen ein. Das bedeutet, unsere Kunden erhalten diese Technologie als integralen Bestandteil unserer Dienstleistungen – ohne explizit dafür bezahlen zu müssen. Ich bin überzeugt, dass dies in vielen Produkten und Branchen zum Standard werden wird. Der Kunde zahlt nicht separat für Agentic AI, sondern profitiert davon, dass der Anbieter die Dienstleistung effizienter und leistungsfähiger bereitstellen kann, indem er KI-Technologien integriert.

Agentic AI wird somit in vielen Fällen einfach als Service oder Funktion mitgeliefert, um „mehr mit weniger Aufwand“ zu ermöglichen. Anders sieht es aus, wenn Unternehmen beginnen, eigene Systeme zu entwickeln und zu integrieren. Hier entstehen unter Umständen höhere Aufwände – allerdings ist der Markt für vorgefertigte Lösungen, Modelle oder ganze Agenten mittlerweile so groß, dass viele Anforderungen durch den Erwerb von Standardlösungen oder sogar qualitativ hochwertigen Open-Source-Angeboten abgedeckt werden können.

Ein Beispiel aus unserer Praxis: Wir haben ein eigenes Sprachmodell, das speziell auf IT-Security trainiert ist, als Open Source zur Verfügung gestellt. Es wird in unserer Plattform eingesetzt, kann aber auch von Kunden genutzt werden, die eigene Security-Plattformen betreiben und dabei mehr als nur Trend Micro integrieren möchten. So ermöglichen wir es unseren Kunden, hochwertige Modelle unabhängig von uns zu orchestrieren und zu integrieren.

Das bedeutet: Große Investitionen sind heute nicht mehr zwingend notwendig. Entweder profitieren Unternehmen über die bereits genutzten Services, in denen KI-Technologien enthalten sind, oder sie können mit moderatem Aufwand eigene Lösungen integrieren. Aus meiner Sicht ist der Ressourcen- und Wissensaufwand für Personal und Know-how heute oft größer als der rein monetäre Aufwand für die Technologie selbst.

Wie verändern Agentic AI-Systeme die Bedrohungslage im Bereich Cyberkriminalität, und was bedeutet das für Unternehmen und Einzelpersonen?

Ich denke, wenn man als potenzieller Kunde oder Nutzer von Agentic AI verstehen möchte, was technologisch möglich ist, lohnt sich ein Blick auf die „dunkle Seite der Macht“. Viele der Argumente, die heute für den Einsatz von Agentic AI im positiven Sinne angeführt werden – etwa autonom agierende, lernfähige Systeme, die Kommunikationsverläufe analysieren und sich merken, was, wann und mit wem besprochen wurde – lassen sich ebenso auf der Seite der Cyberkriminalität einsetzen.

Udo Schneider,
Governance, Risk & Compliance Lead,
Europe bei Trend Micro
(c) timeline/Rudi Handl

Im Security-Bereich sind wir es gewohnt, einen engen zeitlichen Zusammenhang zwischen Angriff und Auswirkung zu sehen: Heute kommt die Phishing-Mail, morgen sind die Daten weg. Mit Agentic AI können jedoch Angriffsmuster, wie sie etwa von staatlichen Akteuren genutzt werden, über sehr lange Zeiträume hinweg, hochgradig zielgerichtet und äußerst persistent repliziert werden. Ein Cyberkrimineller würde mich als Einzelperson vermutlich nicht ins Visier nehmen – es wäre schlicht nicht lohnend. Doch mit Agentic AI kann ein Angreifer automatisiert auswerten, was ich beispielsweise auf LinkedIn oder anderen Plattformen veröffentliche, ein detailliertes Profil erstellen und gezielt Inhalte generieren. Phishing-Angriffe könnten so personalisiert werden, dass sie nicht sofort nach einem Passwort fragen, sondern erst nach mehreren, individuell zugeschnittenen Kommunikationsschritten.

Agentic AI ermöglicht es, sowohl den zeitlichen Verlauf als auch die inhaltliche Tiefe eines Angriffs präzise zu steuern und dabei beliebig zu skalieren. Während für einen Menschen der Aufwand exponentiell steigt, wenn er 100 oder 1.000 Personen angreifen möchte, ist es für ein KI-System lediglich eine Frage der Rechenleistung – der Skalierungseffekt ist enorm. Die ethischen Hemmnisse, die wir beim Einsatz von KI berücksichtigen, existieren bei Cyberkriminellen nicht. Ob von 100 Angriffen 10 scheitern, ist dort irrelevant.

Allerdings sehen wir aktuell, dass diese fortschrittlichen Methoden zwar diskutiert und teilweise im Untergrund angeboten werden, aber bislang nur selten im großen Stil zum produktiven Einsatz kommen. Die Diskrepanz zwischen dem, was möglich ist, was als Dienstleistung angeboten wird, und dem, was tatsächlich genutzt wird, ist noch groß. Der Grund: Viele klassische, breit angelegte Angriffe sind nach wie vor ausreichend erfolgreich – sowohl bei Einzelpersonen als auch bei Unternehmen.

Fazit: Cybercrime ist ein äußerst relevantes und technologisch spannendes Anwendungsfeld für Agentic AI. Wer die Möglichkeiten und Risiken dieser Technologie verstehen möchte, sollte sich intensiv mit den Methoden und Entwicklungen auf der Seite der Cyberkriminalität auseinandersetzen.

Wie können Unternehmen sicherstellen, dass sie die regulatorischen und ethischen Anforderungen des EU AI Act erfüllen?

Vielen ist heute gar nicht bewusst, in wie vielen Bereichen bereits KI-Technologie eingesetzt wird. Ich empfehle jedem Unternehmen dringend, sich mit dem EU AI Act auseinanderzusetzen. Es ist teilweise überraschend, welche Systeme unter diese Verordnung fallen. Obwohl der Name „AI Act“ auf Künstliche Intelligenz verweist, betrifft er streng genommen auch ältere Technologien – beispielsweise einen 30 Jahre alten Spam-Filter mit einfachen Regelwerken. Auch solche Systeme können unter den AI Act fallen.

Das bedeutet: Als Betreiber eines solchen Systems unterliegt man den Vorgaben des AI Act. Die entscheidende Frage ist, ob man sich dessen bewusst ist und ob diese Systeme überhaupt noch im eigenen Inventar erfasst sind – oder ob sie vor Jahrzehnten in einer Excel-Liste „vergraben“ wurden. Das heißt jedoch nicht, dass automatisch alle Systeme denselben strengen Vorgaben unterliegen. Der AI Act unterscheidet zwischen verschiedenen Risikoklassen, und die meisten KI-Systeme fallen in eine niedrige Risikokategorie. Hier ist insbesondere ein vollständiges und aktuelles Inventar erforderlich.

Darüber hinaus gibt es klare ethische Vorgaben: Bestimmte Anwendungen, wie etwa Social Scoring, sind explizit verboten – auch das ist im AI Act festgelegt. Unternehmen sollten daher unbedingt ein Inventar aller eingesetzten und eingekauften KI-Dienste und -Technologien führen. Es gilt zu prüfen, ob zugekaufte Systeme eine Konformitätserklärung des Herstellers oder Anbieters besitzen und ob gegebenenfalls Hochrisiko-KI im Einsatz ist, die besonderen Anforderungen unterliegt – ganz anders als etwa ein einfaches Bildmodell zur Erkennung von Katzenbildern.

Wichtig ist, alle KI-Systeme zu dokumentieren und zu inventarisieren. Später zu behaupten, man wisse nicht, welche KI-Technologien im Unternehmen eingesetzt werden, ist keine akzeptable Antwort und kann zu erheblichen rechtlichen und organisatorischen Problemen führen.

Udo Schneider, Governance, Risk & Compliance Lead, Europe bei Trend Micro
(c) timeline/Rudi Handl

Wie lassen sich Governance, Compliance und Business Continuity im Unternehmen sicherstellen – insbesondere beim Einsatz von Künstlicher Intelligenz?

Richtlinien sind heute bereits integraler Bestandteil vieler Governance-Projekte. Governance und Compliance mögen auf den ersten Blick etwas trocken wirken, sind aber essenziell, um Transparenz und Kontrolle im Unternehmen sicherzustellen. Es geht darum, genau zu wissen, welche Technologien im Unternehmen eingesetzt werden.

Abstrakt betrachtet ist es unerlässlich, als Unternehmen einen Überblick über alle Zulieferer zu haben – ganz gleich, ob es sich um Strom, Gas, Licht, Bauteile oder Software handelt. Das ist ein klassisches Governance-Thema. Ebenso wichtig ist es, die Abhängigkeiten von diesen Zulieferern zu analysieren und zu bewerten, was passiert, wenn einer davon ausfällt. Das ist ein zentrales Element des Business Continuity Managements.

Diese Überlegungen gelten selbstverständlich auch für den Einsatz von Künstlicher Intelligenz. KI muss in die bestehenden Governance- und Business-Continuity-Strategien integriert werden, um Risiken zu minimieren und die Handlungsfähigkeit des Unternehmens zu sichern.

Wie sicher ist der Einsatz von Agentic AI in kritischen Geschäftsprozessen – und welche Rolle spielt dabei die Risikodokumentation?

Ich betrachte das Thema vor allem aus der Risikoperspektive. Kann ich einem Agentic-AI-System zu 100 % vertrauen? Die Antwort lautet: Nein, das kann ich nicht. Aber ebenso wenig kann ich einem Menschen oder einem Steuergerät auf dem Shopfloor uneingeschränkt vertrauen. Aus Risikosicht spielt es daher keine Rolle, ob es sich um einen AI-Agenten, eine SPS oder ein Agentic-AI-System handelt.

Wichtig ist, dass bei der Integration solcher Systeme in Prozesse stets eine fundierte Risikobetrachtung erfolgt. Ich muss analysieren, welche Risiken und potenziellen Ausfälle bestehen, diese Bewertung dokumentieren und auf dieser Grundlage – gemeinsam mit der Geschäftsführung – entscheiden, ob das Risiko im jeweiligen Prozess akzeptabel ist. Das Risiko muss qualifiziert und nachvollziehbar dokumentiert sein, damit die Geschäftsleitung eine informierte Entscheidung treffen kann – unabhängig davon, ob es um die Supply Chain, Immobilien, Stromversorgung oder Agentic AI geht.

Auch aus regulatorischer Sicht ist dies entscheidend: Sollte es später zu einem Vorfall kommen, kann ich nachweisen, dass ich meine Sorgfaltspflichten erfüllt habe, indem ich die Risiken dokumentiert, das KI-System evaluiert und beispielsweise eine Erfolgswahrscheinlichkeit von 99,3 % angenommen habe, die sich später als 92 % herausstellt. Solange ich nicht fahrlässig gehandelt habe, sondern das Risiko angemessen eingeschätzt und dokumentiert wurde, bin ich regulatorisch auf der sicheren Seite.

Problematisch wird es erst, wenn ein Vorfall eintritt – insbesondere mit Schaden an Leib und Leben – und ich keinerlei Nachweise über meine Risikobewertung oder getroffene Maßnahmen vorlegen kann. „Keine Ahnung“ ist in diesem Zusammenhang eine denkbar schlechte Antwort.

Fazit: Auch im Bereich Agentic AI gibt es keine hundertprozentige Sicherheit. Entscheidend ist, die Risiken zu kennen, sie zu dokumentieren und auf dieser Basis fundierte Entscheidungen zu treffen.

Wie bewerten Sie den aktuellen Umgang mit KI und IT-Sicherheit in Unternehmen – und wo sehen Sie die größten Herausforderungen im Spannungsfeld zwischen Technologie, Business-Nutzen und regulatorischen Anforderungen?

Wir waren lange Zeit sehr technologiebegeistert und haben dabei häufig den Business-Aspekt vernachlässigt. Oft wurde KI um der Technologie willen eingesetzt, ohne zu hinterfragen, welchen konkreten Nutzen sie für das Unternehmen bringt und ob sich der Einsatz überhaupt lohnt – und das kann man aus verschiedenen Perspektiven betrachten.

Noch gravierender ist jedoch, dass aktuelle Regularien weniger wegen der geforderten Maßnahmen selbst kritisiert werden, sondern vielmehr aufgrund der damit verbundenen Dokumentationspflichten. Viele Unternehmen empfinden es als aufwändig, detailliert zu dokumentieren, was sie getan haben und warum bestimmte Entscheidungen getroffen wurden. Aus einer Governance-Perspektive wundert mich das allerdings: Doppelte Buchführung, ERP-Systeme und die Dokumentation von Geschäftsprozessen sind längst Standard – es sollte also selbstverständlich sein, dass auch Entscheidungen und deren Hintergründe nachvollziehbar festgehalten werden.

Gerade im IT- und speziell im IT-Security-Bereich war es lange üblich, „ein wenig Security-Feenstaub“ über alles zu streuen und darauf zu hoffen, dass es schon passen wird. Die aktuellen Regulierungen, wie zum Beispiel der AI Act, machen damit Schluss und fordern ausdrücklich, dass Entscheidungen dokumentiert werden müssen. Das ist jedoch kein neues Prinzip: Es geht immer um die Abwägung von Risiken und die daraus resultierende Geschäftsentscheidung – und diese muss, idealerweise möglichst automatisiert, dokumentiert werden. Das ist und bleibt eine zentrale Aufgabe der Unternehmensführung.

Wie trägt Künstliche Intelligenz dazu bei, den Fachkräftemangel zu adressieren?

Gerade beim Thema Personal möchte ich den Aspekt Security besonders hervorheben. Die Zahl der Fachkräfte, die in der Lage sind, hochkomplexe Angriffe zu beurteilen und zu verstehen, ist begrenzt – das kann nicht jeder. Wenn eine solche hochqualifizierte Person seitenweise klassische Logdateien zur Auswertung erhält, wird sie schnell überfordert oder frustriert sein. Solche Talente lassen sich auf Dauer nicht halten, wenn sie mit repetitiven oder langweiligen Aufgaben betraut werden.

Hier kann KI einen entscheidenden Beitrag leisten, indem sie das „Hintergrundrauschen“ filtert und repetitive Aufgaben automatisiert übernimmt. So bleibt den Expertinnen und Experten mehr Zeit, sich auf die wirklich anspruchsvollen und interessanten Fälle zu konzentrieren, die ihrem Qualifikationsniveau und ihren Interessen entsprechen.

Gerade angesichts des demografischen Wandels ist es wichtig, das Arbeitserlebnis für die wenigen verfügbaren Fachkräfte attraktiv zu gestalten. KI kann dazu beitragen, dass diese Mitarbeitenden nicht mit Routineaufgaben belastet werden, sondern sich auf die spannenden Aspekte ihrer Tätigkeit konzentrieren können. Denn wenn hochqualifizierte Mitarbeitende, die beispielsweise bereits komplexe Hackergruppen aufgedeckt haben, in ihrem neuen Job nur noch Logfiles durchsehen sollen, werden sie das Unternehmen schnell wieder verlassen.

KI hilft somit nicht nur, Effizienz und Sicherheit zu erhöhen, sondern trägt auch dazu bei, die Attraktivität und Zufriedenheit der Mitarbeitenden zu steigern.

Diese Transformation erinnert an den Wandel von der klassischen Schreibmaschine und dem Diktierpool hin zu einer Arbeitswelt, in der jeder Mitarbeitende einen PC mit Textverarbeitung nutzt. Auch damals gab es zunächst Unverständnis und teilweise Widerstand gegen die neue Technologie – heute ist das völlig selbstverständlich.

Für mich hat Künstliche Intelligenz im Kern eine vergleichbare Qualität. Auch wenn KI technologisch beeindruckender erscheint, handelt es sich letztlich um eine Weiterentwicklung der eingesetzten Technologien in den jeweiligen Prozessen. Es ist eine klassische Change-Management-Aufgabe – oder, anders gesagt: „Same old, same new.“

Wie wird Agentic AI den Umgang mit Security-Herausforderungen in Zukunft verändern?

Im Bereich Security liegt der Fokus eindeutig auf der Automatisierung repetitiver Prozesse. Es ist nicht zu erwarten, dass die Anzahl der Angriffe – in welcher Form auch immer – abnehmen wird. Im Gegenteil: Sowohl die Quantität als auch die Qualität der Angriffe werden weiter zunehmen, wie wir bereits heute beobachten können.

Agentic AI bietet hier die Möglichkeit, wiederkehrende Aufgaben effizient zu automatisieren. Dadurch können die vorhandenen Fachkräfte gezielt dort eingesetzt werden, wo ihre Expertise wirklich gefragt ist – insbesondere in den Fällen, in denen ein Agentic-AI-System nicht eigenständig entscheiden kann oder sollte. So bleibt der Mensch gezielt „in the Loop“ und kann sich auf die wirklich kritischen und anspruchsvollen Aufgaben konzentrieren.

Der Fokus liegt also klar auf Automatisierung und Autonomie, um mit der Entwicklung Schritt zu halten und die Wettbewerbsfähigkeit im Bereich Security nachhaltig zu sichern.

Den vollständigen Roundtable „Übernehmen die KI-Agenten?“ gibt es hier zum nachsehen.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*