KI nimmt in der IT-Sicherheit eine ambivalente Rolle ein: Sie treibt Innovationen voran und unterstützt die Abwehr, wirkt zugleich jedoch als Katalysator für neue Bedrohungen und wirft ethische Fragen auf. Entsprechend vielschichtig gestaltete sich der ITWelt.at Roundtable zu Security und künstlicher Intelligenz. [...]
Künstliche Intelligenz (KI) ist längst kein abstraktes Zukunftsthema mehr, sondern ein integraler Bestandteil unseres Alltags und der IT-Sicherheit. Doch was genau bringt KI in kritischen Umgebungen? Welche neuen Bedrohungen entstehen, und wie können Unternehmen ihre Potenziale sicher nutzen? Diese Fragen standen im Mittelpunkt des ITWelt.at-Roundtable, an dem fünf führende Experten und Expertinnen aus den Bereichen Cybersecurity und Vertrauensdienstleistung teilnahmen und der in den Räumlichkeiten von Fortinet in Wien stattfand: Gastgeberin Dr. Ronke Babajide, Managerin System Engineering Enterprise bei Fortinet, Dr. Markus Vesely, CEO der A-Trust GmbH, Dr. Klaus Gheri, Vorstandsvorsitzender sowie VP & GM Network Security bei Barracuda Networks, Richard Werner, Cybersecurity Platform Lead Europe bei Trend Micro, sowie Ekatherina Haas, Regional Vice President Alpine bei Zscaler.
Die Diskussion begann mit einem Blick auf die veränderte Bedrohungslandschaft, die durch den breiten Einsatz von KI entstanden ist. Die Fachleute sind sich einig: KI verstärkt bestehende Risiken und schafft neue Angriffsvektoren. Markus Vesely betont, dass die Verfügbarkeit leistungsstarker KI-Modelle, insbesondere von Large Language Models (LLMs), eine neue Ära der Bedrohung eingeläutet hat: „Ich halte die Kombination aus Mensch und Maschine nach wie vor für das Gefährlichste, das uns in der Cybersicherheit begegnen kann.“ Er führt weiter aus, dass Anwendungen wie Deepfakes ein „ständiges technisches Wettrennen“ verursachen, bei dem Erkennungsmechanismen kaum auf dem Markt sind, bevor neue Deepfake-Generatoren diese bereits umgehen. Die größte Gefahr sieht Vesely in der „Verbindung aus menschlicher Täuschungskompetenz und maschineller Skalierbarkei“: „KI alleine ist bedrohlich. In Kombination mit menschlicher Absicht wird sie zur potenziell unkontrollierbaren Waffe.“
Auch Klaus Gheri betont die Verschiebung der Angriffsziele. Nicht mehr nur der Mensch oder seine Geräte stehen im Fokus, sondern auch die digitalen Assistenten. Er nennt den bekannten Microsoft-Copilot-Vorfall als prägnantes Beispiel: Hier wurde nicht der Benutzer selbst angegriffen, sondern dessen Assistenzsystem noch bevor dieser überhaupt die betroffene E-Mail geöffnet hatte. „Dadurch ändert sich das Ziel von Angriffen grundlegend.“ Gheri sieht hier „weitgehendes Neuland“, da Kommunikation künftig verstärkt von System zu System, also „Assistant zu Assistant, KI zu KI“, stattfindet. Dies erhöhe nicht nur das Volumen möglicher Angriffe, sondern stelle auch etablierte Sicherheitsmechanismen vor völlig neue Herausforderungen.
„Wenn Mitarbeitende Technologien nicht verstehen oder blind nutzen, entstehen neue Risiken. Deshalb geht es bei KI eben nicht nur um Tools und Technologie, es geht auch um Bildung, Aufklärung, digitale Mündigkeit.“
Dr. Ronke Babajide, Managerin System
Engineering Enterprise bei Fortinet (c) timeline/Rudi Handl
Ronke Babajide pflichtet bei, dass KI die Bedrohungslage spürbar verändert hat. „KI ermöglicht es heute auch Personen mit sehr begrenztem technischem Wissen, Cyberangriffe durchzuführen.“ Gleichzeitig würden diese Angriffe „deutlich gezielter, maßgeschneiderter und lassen sich in bislang nicht möglichem Ausmaß automatisieren und skalieren.“ Ein relativ neues und beunruhigendes Phänomen sei die Prompt Injection, bei der Angreifer manipulative Eingaben nutzen, um KI-Systeme zu beeinflussen. Dies könne dazu führen, dass manipulierte E-Mails Schaden anrichten, noch bevor ein Mensch sie überhaupt zu Gesicht bekommt, da das KI-System sie bereits vorverarbeitet. Babajide hebt auch die Risiken in der Supply Chain hervor, da oft unklar sei, wer die Modelle trainiert habe oder mit welchen Daten.
„Technik und Ethik müssen künftig noch viel enger miteinander verschmelzen. Es darf kein Entweder-oder sein. Wer verantwortungsvoll mit KI umgehen will, muss beides zusammen denken – sonst riskieren wir nicht nur Fehlentscheidungen, sondern auch das Vertrauen der Menschen in diese Technologie.“
Dr. Markus Vesely,
CEO der A-Trust GmbH (c) timeline/Rudi Handl
Richard Werner bestätigt, dass KI von Verbrechern bereits genutzt wird, derzeit jedoch noch hauptsächlich zur Optimierung bekannter Angriffsmethoden. Der wirklich kritische Punkt werde erreicht, „wenn Kriminelle beginnen, die neuen technologischen Potenziale voll auszuschöpfen, etwa durch den Einsatz sogenannter Agentic AI.“ Solche autonomen KI-Systeme könnten auf einem kompromittierten System selbstständig Entscheidungen treffen und Aktionen ausführen, was die Qualität des Angriffs massiv erhöhe. Werner warnt vor sogenannten Poisoning-Angriffen, bei denen manipuliertes Material im Internet platziert wird, damit große Sprachmodelle diese Inhalte aufnehmen und somit langfristig manipuliert werden können. „Inzwischen ist es möglich, KI-Befehle in E-Mail-Anhängen oder sogar unsichtbar im Text selbst zu verstecken.“ Solche Aktivitäten würden oft dem Bereich der Wirtschaftsspionage zugeordnet und seien meist „klar staatlich gesteuerte Operationen“.
„Wir empfehlen, KI heute als einen intelligenten Hinweisgeber zu verstehen: Sie kann Risiken frühzeitig erkennen, Zusammenhänge aufzeigen, vorfiltern und erste automatisierte Maßnahmen einleiten. Die Verantwortung für weitreichende Entscheidungen bleibt jedoch bewusst beim Menschen.“
Ekatherina Haas,
Regional Vice President Alpine bei Zscaler (c) timeline/Rudi Handl
Ekatherina Haas betont, dass KI die Angreiferlandschaft „deutlich diversifizierter“ gemacht habe. Es gehe nicht mehr nur um hochkomplexe Szenarien, sondern auch darum, dass Gruppen mit geringerer technischer Expertise von KI-Modellen profitieren könnten. „Bereits mit grundlegenden Kenntnissen lassen sich mit Hilfe gängiger KI-Modelle Angriffspfade identifizieren oder Schwachstellen in traditioneller IT-Infrastruktur aufdecken.“ Unternehmen, die noch klassische Infrastrukturen mit öffentlichen IP-Adressen im Internet einsetzen, seien hier besonders gefährdet. Haas sieht aber auch eine Brücke: „Denn genau diese Technologien lassen sich auch auf der Verteidigungsseite gezielt einsetzen.“
„Sobald die Auswirkungen der KI in den unternehmenskritischen Bereich hineinreichen, insbesondere bei Eingriffen in Produktionsprozesse oder bei Entscheidungen, die einen realen wirtschaftlichen oder gar physischen Schaden verursachen könnten, stößt die Idee einer vollkommen autonomen Sicherheitsarchitektur an klare Grenzen.“
Dr. Klaus Gheri, Vorstandsvorsitzender sowie VP & GM Network Security bei Barracuda Networks (c) timeline/Rudi Handl
KI als unverzichtbare Hilfe
Ronke Babajide sieht den Mehrwert von KI vor allem in der Fähigkeit, „große Datenmengen extrem schnell zu korrelieren.“ Dank globaler Präsenz und Telemetriedaten aus Firewall-Installationen fließen diese in Fortinets FortiGuard-Services ein, um präzise Threat Intelligence und Zero-Day-Erkennung zu ermöglichen. Zudem sei KI gezielt im Umfeld von SIEM- und SOC-Systemen bei der Triage von Hunderten sicherheitsrelevanter Events nützlich. „KI-gestützte Systeme helfen, die Relevanz zu bewerten, Zusammenhänge herzustellen und Vorfälle effizienter zu priorisieren.“ Das entlastet Analysten erheblich, besonders in großen, verteilten Infrastrukturen. Sie betont, dass viele Unternehmen bereits seit Jahren mit Machine-Learning-Modellen arbeiten, um Verhaltensmuster oder Angriffsstrategien zu erkennen, und dass dies das Rückgrat vieler Sicherheitslösungen bilde, auch wenn der Fokus oft auf generativer KI liege.
„Faktisch nutzt heute nahezu jedes Unternehmen bereits KI – ob geplant oder ungeplant. Deshalb ist es essenziell, dass Unternehmen beginnen, nicht nur auf technischer Ebene nachzurüsten, sondern sich strategisch mit der KI-Nutzung auseinanderzusetzen, auch um zukünftige regulatorische Anforderungen erfüllen zu können.“
Richard Werner, Cybersecurity Platform Lead, Europe bei Trend Micro (c) timeline/Rudi Handl
Ekatharina Haas sieht das größte Potenzial von KI in ihrer Fähigkeit, Auffälligkeiten nicht nur zu identifizieren, sondern auch unmittelbar darauf zu reagieren. Sie hebt den Einsatz von Decoys oder Honeypots hervor, die in vielen Umgebungen, auch bei Zscaler, nativ integriert sind. Die Kombination aus großem Datenvolumen, präziser Verhaltensanalyse und gezieltem Täuschungsmechanismus ermögliche es, Angreifer frühzeitig zu erkennen, sie auf kontrollierte Systeme umzuleiten und ihr Verhalten dort zu analysieren. Wenn die KI beispielsweise ein ungewöhnliches Nutzerverhalten feststellt, wird der Nutzer nicht sofort blockiert, sondern auf einen Honeypot umgeleitet, wo das Verhalten weiter beobachtet und bei Bedarf Gegenmaßnahmen eingeleitet werden.“»Diese Art von Echtzeitanalyse und Reaktion wäre manuell schlicht nicht zu bewältigen, schon gar nicht in großen Organisationen mit 30.000 oder mehr Mitarbeitenden.“ KI hilft bei der Vorfilterung und Priorisierung von Tausenden täglichen Meldungen und kann unter klar definierten Rahmenbedingungen auch erste Gegenmaßnahmen automatisiert einleiten, was Teams entlastet und das Risiko menschlicher Überforderung reduziert.
Klaus Gheri stellt klar, dass KI längst ein fester Bestandteil der Produktentwicklung sei und bestehende Mechanismen intelligenter mache. Die Assistenzfunktion von KI sei gerade im Bereich Managed XDR essenziell: „Dort unterstützen KI-Systeme Analysten dabei, in großen Datenmengen rasch erste Indikationen für einen Vorfall zu erkennen und anschließend auch bei der Einschätzung des Incidents zu helfen.“ Er nennt das „Impossible Travel“-Erkennen als ein leistungsfähiges, etabliertes KI-Verfahren, das Login- oder Zugriffsevents aus geografisch weit entfernten Orten innerhalb unrealistischer Zeitfenster identifiziert. Im Managed-SOC-Bereich sei KI-Unterstützung unerlässlich, um Service Level Agreements (SLAs) von 20 Minuten für die Incident Response einzuhalten. „Die Analyse muss also bereits im Vorfeld weitgehend KI-gestützt ablaufen: Relevante Datenpunkte werden zusammengeführt, bewertet, Berichte und externe Indikatoren inhaltlich zusammengefasst und auf den Punkt gebracht – alles automatisiert, damit dem Analysten eine solide Entscheidungsgrundlage in möglichst kurzer Zeit zur Verfügung steht.“ Auch bei der Kommunikation mit Kunden, insbesondere in weniger dringlichen Fällen, kommt KI zum Einsatz, um mittels Sentiment-Analyse Tonalität und Kontext zu bewerten und die Bearbeitung entsprechend zu priorisieren.
Richard Werner bestätigt, dass an KI in der Cybersicherheit kein Weg vorbeiführt und sie seit über 20 Jahren eingesetzt wird. Der Fokus liege nun darauf, den Einsatz weiterzuentwickeln und ihre Wirkung gezielt zu verstärken, um „KI-gestützte Angriffe frühzeitig erkennen, richtig einordnen und mit geeigneten Mitteln abwehren“ zu können. Er sieht den größten Mehrwert von KI dort, wo sie große Datenmengen schnell und effizient analysieren kann, um daraus konkrete, verwertbare Ergebnisse abzuleiten. KI ermöglicht es, den Ansatz in der Cybersicherheit von reaktiv zu proaktiv zu verändern. Durch die Zusammenführung von Threat Intelligence und realen Systemlandschaftsdaten kann eine dynamische Risikobewertung erstellt werden. „Dabei geht es nicht nur um technische Schwachstellen, sondern auch um logische Lücken, etwa schwache Passwörter, ungewöhnliche Anmeldeverhalten wie Impossible Travel oder falsch gesetzte Berechtigungen.“ KI helfe nicht nur, Risiken zu erkennen, sondern auch zu erklären, warum sie bestehen und wie sie behoben werden können. „Künstliche Intelligenz hilft uns dabei, genau diese Lücken frühzeitig sichtbar zu machen und gezielt zu schließen, bevor sie ausgenutzt werden können.“
Markus Vesely, der sich als CEO des größten Vertrauensdiensteanbieters in Österreich versteht – unter anderem für Anwendungen wie ID Austria – plädiert für eine fundierte Auseinandersetzung mit KI. Er sieht das Potenzial der Technologie, aber auch die damit verbundenen Risiken. Für A-Trust sei es essenziell, mit technologischen Entwicklungen Schritt zu halten und Systeme kontinuierlich zu hinterfragen, um digitale Identitäten vor Kompromittierung zu schützen. Dies beinhaltet die aktive Analyse von Post-Quantum-Kryptografie, da klassische Verschlüsselungsalgorithmen durch leistungsfähige Quantenrechner in weniger als zehn Jahren gebrochen werden könnten. Vesely hob hervor, dass KI, ähnlich wie in der Krebsdiagnostik, extrem präzise Muster erkennen und wertvolle Hinweise liefern kann, was auf das Potenzial zur Effizienzsteigerung hindeutet.
KI-Einsatz mit Bedacht
Als Vertrauensdiensteanbieter – unter anderem für Anwendungen wie ID Austria – könne A-Trust nicht unbedarft mit KI experimentieren, da die Systeme höchsten Sicherheitsanforderungen entsprechen müssten. Jeder Einsatz müsse „zu 100 Prozent verlässlich und vor Manipulation geschützt sein“. Vesely betont die Notwendigkeit globaler Regelungen und Kontrollinstanzen für den KI-Einsatz, insbesondere im militärischen Bereich. Ein weiteres wichtiges Thema sei der schleichende Verlust an technischem Grundlagenwissen: „Gerade im Kontext von Blackbox-Algorithmen stellt das ein ernsthaftes Risiko dar. Wenn kaum noch jemand die Systeme im Kern versteht, steigt nicht nur die Abhängigkeit, sondern auch die Gefahr von Fehlentscheidungen, Manipulationen oder blindem Vertrauen in Technologie.“ Vesely verweist auf die ethischen Leitlinien der EU, insbesondere den Grundsatz „menschliche Handlungsfähigkeit und Kontrolle“, wonach die letzte Entscheidung immer beim Menschen liegen müsse. Er warnte zudem vor der „Schatteninfrastruktur“, die entsteht, wenn Mitarbeitende KI-Tools ohne Unternehmensrichtlinien nutzen und dabei personenbezogene oder sensible Daten weitergeben. Unternehmen müssten den Einsatz von KI klar regeln: „Was darfst du in die KI eingeben, welche Modelle stellen wir dir zur Verfügung, welche darfst du nutzen – einfach damit man einen Überblick hat.“ Regelmäßige Schulungen und Bewusstseinsschaffung seien deshalb essenziell.
Die Haftungsfrage
Klaus Gheri von Barracuda Networks legt den Fokus auf die Kontrolle und das Verständnis der KI-Systeme. „Irgendwann bleibt der Mensch nur noch als Placebo in der Entscheidungsarchitektur – zur Beruhigung, aber nicht mehr zur Kontrolle.“ Dies sei zwar in der IT-Security noch nicht der Fall, aber die Entwicklung gehe dahin, dass Entscheidungen zunehmend automatisiert getroffen werden, mit Risiken wie Fehlklassifikationen oder gezieltem Model Poisoning. Gheri betont zudem, dass die Rechtslage bezüglich der Haftung bei autonomen KI-Systemen noch ungeklärt sei: „Wer haftet, wenn dadurch Schaden entsteht: der Betreiber des Bots, der Anbieter des KI-Modells oder der Endnutzer?“ Eine vollständig autonome IT-Security sei daher nicht realistisch oder wünschenswert, besonders in unternehmenskritischen Bereichen, wo »der letzte Entscheidungsschritt immer einem Menschen überlassen« werde.
Ekatherina Haas von Zscaler unterstrich die Bedeutung der Festlegung von Einsatzgrenzen für KI. Sie betonte, dass KI zwar erste Gegenmaßnahmen dynamisch und risikobasiert steuern könne, beispielsweise durch Anforderung eines zusätzlichen Authentifizierungsfaktors bei geringem Risiko, aber bei kritischen Szenarien wie dem Sperren von Benutzerkonten oder Geräten bleibe menschliche Entscheidungskompetenz gefragt. „Die Verantwortung für weitreichende Entscheidungen bleibt bewusst beim Menschen.“ Dafür sei es entscheidend, dass KI-Modelle nachvollziehbar arbeiten und im Ernstfall erklären können, wie sie zu ihrer Einschätzung kamen, um Vertrauen aufzubauen. Sie hebt die Bedeutung des technologischen Grunddesigns hervor und bringt das Zero-Trust-Prinzip ins Spiel: „Zero Trust basiert auf einer fein granulierten Zugriffslogik, die sich an konkreten Richtlinien und Echtzeitbewertungen orientiert und nicht an statischen Vertrauensannahmen.“ In einem solchen System könnten viele Prozesse sicher automatisiert werden. Ein weiteres großes Risiko sei der unbeabsichtigte Datenabfluss (DLP) durch menschliches Fehlverhalten, etwa durch falsche Klassifizierung sensibler Dokumente. Hier könne KI proaktiv durch Warnhinweise oder automatische Blockierungen helfen.
Richard Werner von Trend Micro betont die Notwendigkeit, die Kontrolle über die digitalen Umgebungen zurückzugewinnen, besonders angesichts autonomer KI-Systeme. Solche Systeme agieren oft im Hintergrund und mit Zugriff auf sensible Daten, was neue Sicherheitslücken schafft. Er hebt hervor, dass der EU AI Act die rechtliche Verantwortung für den KI-Einsatz klar dem Anwender, also dem Unternehmen, zuweise. Dies erfordere von Herstellern, Transparenz darüber zu schaffen, wie Modelle zu Entscheidungen kommen und wo Schwächen liegen. „Blackbox-Systeme, die auf Nachfrage nichts preisgeben, sind in sicherheitskritischen Bereichen aus unserer Sicht problematisch.“ Die vollständige Automatisierung in der Sicherheit sei durch den Risikoappetit der Verantwortlichen begrenzt: am Ende müsse immer eine menschliche Entscheidung stehen. Er kritisiert das klassische Muster der IT-Branche, erst zu implementieren und dann über Sicherheit nachzudenken: „Gerade bei KI wäre es an der Zeit, dieses Muster zu durchbrechen.“ Unternehmen müssten proaktiv mit der KI-Nutzung umgehen, nicht nur technisch, sondern strategisch, auch um zukünftige regulatorische Anforderungen zu erfüllen. Für Werner ist die entscheidende Frage nicht, ob KI eingesetzt wird, sondern „Wie machen wir das bestmöglich und sicher?“
Umdenken gefordert
Ronke Babajide von Fortinet fordert ein Umdenken im Sicherheitsverständnis: Unternehmen müssten viel genauer hinsehen, welche KI-Tools verwendet werden, wie sie eingesetzt werden und welche Berechtigungen sie haben. Sie unterschied klar zwischen klassischem Machine Learning und LLMs, da letztere Entscheidungen treffen, ohne dass der Weg dorthin nachvollziehbar sei – eine Blackbox-Dynamik. „Wenn wir nicht verstehen können, wie eine sicherheitsrelevante Entscheidung zustande kommt, können wir sie auch nicht verantworten.“ Der EU AI Act sei ein wichtiger Schritt, aber als europäische Lösung „keine gesamteuropäische Lösung“ und international fehle es an einheitlichen Standards. Die Automatisierung von Sicherheitsmaßnahmen eröffne neue Angriffsvektoren, da Angreifer versuchen könnten, diese gezielt zu manipulieren. Babajide betont, dass trotz aller Technik immer noch eine menschliche Kontrollinstanz notwendig sei und auch auf absehbare Zeit nicht wegfallen werde. „Wer solche Systeme implementiert, muss sich bewusst mit einer Reihe von Fragen auseinandersetzen: Welche Daten dürfen verarbeitet werden? Wer hat Zugriff auf diese Systeme?“ Für maximale Kontrolle, insbesondere bei sensiblen Daten, empfihelt sie eigene KI-Instanzen oder private Modelle. Sie hebt zudem die Wichtigkeit von Schulungen und „digitaler Mündigkeit“ hervor, da Mitarbeiter und Mitarbeiterinnen oft ohne Bewusstsein für Risiken sensible Daten in öffentliche KI-Tools eingeben. Sie ermutigt Unternehmen: „Angst bringt hier nichts. Offenheit, Neugier und Lernbereitschaft – das sind die besseren Begleiter im Umgang mit neuen Technologien.“
Die Diskussion zeigte deutlich, dass der Faktor Mensch entscheidend bleibt – sowohl als Quelle von Risiken als auch als ultimative Kontrollinstanz. Damit ist er wie schon bei anderen disruptiven Technologien in der Vergangenheit der entscheidende Stellhebel für einen verantwortungsvollen Umgang.
Die Teilnehmer auf einen Blick
- Gastgeberin Dr. Ronke Babajide, Managerin System Engineering Enterprise bei Fortinet
- Dr. Klaus Gheri, Vorstandsvorsitzender sowie VP & GM Network Security bei Barracuda Networks
- Ekatherina Haas, Regional Vice President Alpine bei Zscaler
- Dr. Markus Vesely, CEO der A-Trust GmbH
- Richard Werner, Cybersecurity Platform Lead Europe bei
Trend Micro
Moderation & Redaktion: Wolfgang Franz (ITWelt)
Technik: Mag. Roland Kissling
Fotos: timeline/Rudi Handl
Überblick aller bislang veranstalteten ITWelt.at-Roundtables:
www.itwelt.at/tag/roundtable
Die Expertenrunde zum Nachsehen finden Sie hier: www.facebook.com/itwelt.at/videos, www.youtube.com/c/ITWELT

Be the first to comment