„Der Schlüssel zu mehr Sicherheit ist Zero Trust gemeinsam mit KI“

KI nimmt in der IT-Sicherheit eine ambivalente Rolle ein: Sie treibt Innovationen voran und unterstützt die Abwehr, wirkt zugleich jedoch als Katalysator für neue Bedrohungen und wirft ethische Fragen auf. Entsprechend vielschichtig gestaltete sich der ITWelt.at Roundtable zu Security und künstlicher Intelligenz. Die Redaktion sprach im Rahmen der Diskussion mit Ekatherina Haas, Regional Vice President Alpine bei Zscaler. [...]

Ekatherina Haas, Regional Vice President Alpine bei Zscaler. (c) timeline/Rudy Handl
Ekatherina Haas, Regional Vice President Alpine bei Zscaler. (c) timeline/Rudy Handl

Bitte skizzieren Sie Ihren Aufgabenbereich. Und: Wie lässt sich das Potenzial künstlicher Intelligenz im Bereich IT-Sicherheit nutzen, ohne dabei unternehmenskritische Risiken aus dem Blick zu verlieren? 

Ich verantworte die Märkte Schweiz und Österreich für Zscaler – ein Unternehmen, das als Pionier gilt und die Marktführerschaft im Bereich Zero Trust innehat. 

Künstliche Intelligenz bringt ohne Frage eine Vielzahl an Vorteilen mit sich, insbesondere was die Produktivität betrifft – auch und gerade im Security-Umfeld. Gleichzeitig gibt es aber auch klare Herausforderungen, die nicht unterschätzt werden dürfen. 

Aus meiner Sicht ist es entscheidend, dass Unternehmen aktuell genau definieren, wo die sinnvollen und verantwortbaren Einsatzgrenzen liegen. Nur so lässt sich das Potenzial von KI nutzen, ohne dabei das notwendige Maß an Kontrolle und Sicherheit zu verlieren. 

Wie kann künstliche Intelligenz im Bereich der Cybersicherheit nicht nur zur Früherkennung, sondern auch zur effektiven Reaktion auf neuartige Angriffsmuster wie Zero-Day-Attacken beitragen? 

Auf der Verteidigungsseite eröffnet künstliche Intelligenz enorme Potenziale. Gerade bei der Früherkennung spielt sie eine entscheidende Rolle – etwa beim Aufspüren von Anomalien oder beim Erkennen neuer, bislang unbekannter Angriffsmuster wie Zero-Day-Attacken. 

Die Stärke von KI liegt vor allem in ihrer Fähigkeit, riesige Datenmengen in kürzester Zeit zu analysieren und Auffälligkeiten zu identifizieren, die auf potenzielle Bedrohungen hinweisen. Je mehr Daten zur Verfügung stehen, desto leistungsfähiger wird das System. Das hilft uns bei Zscaler enorm, da unsere Plattform täglich rund eine halbe Billion Transaktionen verarbeitet. 

Als Transaktionen verstehen wir sämtliche Interaktionen, die über unsere Plattform laufen – etwa das Aufrufen von Webseiten, den Zugriff auf Cloud-Applikationen oder den Datenaustausch zwischen Geräten. Diese Datenpunkte sind die Basis für unsere speziell trainierten KI-Modelle, mit denen wir ungewöhnliche Verhaltensmuster auf Benutzer- oder Geräteebene identifizieren und frühzeitig eingreifen können. 

Darüber hinaus entwickeln wir unsere Plattform kontinuierlich weiter. Aktuell haben wir im Bereich Managed Detection and Response eine Akquisition vorgenommen: Red Canary, ein Unternehmen mit starker Expertise in automatisierter Incident Response und Threat Hunting. Damit stärken wir gezielt die Schnittstelle zwischen KI-gestützter Früherkennung und menschlicher Entscheidungsintelligenz. 

Diese Kombination aus Mensch und künstlicher Intelligenz versetzt uns in die Lage, auch neuartige Bedrohungen wie Zero-Day-Angriffe nicht nur schneller zu erkennen, sondern auch gezielter darauf zu reagieren. Für uns ist das ein zentraler Baustein, um die Sicherheit unserer Kunden weiter zu erhöhen. 

Wie hat KI die Angreiferseite verändert?

Künstliche Intelligenz hat die Angreiferlandschaft deutlich diversifizierter gemacht hat. Es geht dabei nicht ausschließlich um hochkomplexe Szenarien, in denen KI-Systeme autonom agieren oder mit anderen KI Systemen kommunizieren. Vielmehr sehen wir zunehmend, dass auch Gruppen mit geringer technischer Expertise von den Möglichkeiten profitieren, die KI-Modelle bieten. 

Das bedeutet: Angriffe müssen heute nicht mehr von hochqualifizierten Expertinnen und Experten ausgehen. Bereits mit grundlegenden Kenntnissen lassen sich mit Hilfe gängiger KI-Modelle Angriffspfade identifizieren oder Schwachstellen in traditioneller IT-Infrastruktur aufdecken. Es ist möglich, sich gezielt Informationen über die Sicherheitslücken bestimmter Unternehmen einfach durch geschickt formulierte Anfragen an große Sprachmodelle ausgeben zu lassen.

Das ist eine reale Gefahr, der Unternehmen gegenüberstehen – und zwar insbesondere dort, wo noch klassische Infrastrukturen mit public IP-Adressen im Internet im Einsatz sind. Gleichzeitig eröffnet sich hier auch die Möglichkeit zum Brückenschlag: Denn genau diese Technologien lassen sich auch auf der Verteidigungsseite gezielt einsetzen. 

Wir nutzen KI intensiv, um eben solche Bedrohungspotenziale frühzeitig zu erkennen und abzuwehren, nicht nur auf der Ebene komplexer Attacken, sondern auch dort, wo KI weniger offensiv, aber nicht minder wirkungsvoll, zur Anwendung kommt. Der Schlüssel liegt darin, das eigene Sicherheitsverständnis an diese neue Dynamik anzupassen und KI nicht nur als Gefahr, sondern als Werkzeug in der Abwehrstrategie zu begreifen. 

Was verstehen wir heute eigentlich unter „künstlicher Intelligenz“ – und warum ist es wichtig, zwischen generativer KI und klassischen datenbasierten Verfahren zu unterscheiden? 

Wenn wir heute – speziell innerhalb der IT-Security-Branche – von künstlicher Intelligenz sprechen, meinen wir in der Regel den generativen Teil. Das betrifft vor allem Tools wie Chatbots, Assistentensysteme oder andere Anwendungen, die auf Large Language Models basieren. 

Dabei darf man aber nicht vergessen, dass es auch eine historische Komponente gibt, die weiterhin relevant ist: das Durchforsten und Interpretieren von Datenmustern, wie es in klassischen Machine Learning-Verfahren seit Jahren praktiziert wird. Diese datenbasierten Systeme sind oft weniger sichtbar, aber sie leisten einen zentralen Beitrag in vielen Bereichen – von der Anomalieerkennung bis hin zur Automatisierung technischer Prozesse. 

Trotzdem ist es derzeit vor allem das Thema LLMs, das unsere Aufmerksamkeit prägt – und genau über diese Form von künstlicher Intelligenz sprechen wir aktuell am intensivsten. 

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen


Wie kann künstliche Intelligenz im Zusammenspiel mit Honeypots und Verhaltensanalysen dazu beitragen, Cyberangriffe frühzeitig zu erkennen? 

Das größte Potenzial künstlicher Intelligenz sehe ich nicht nur in der bereits angesprochenen Früherkennung, sondern vor allem auch in ihrer Fähigkeit, Auffälligkeiten nicht nur zu identifizieren, sondern unmittelbar darauf zu reagieren. Ein besonders wirkungsvoller Ansatz ist dabei der Einsatz von Decoys oder sogenannten Honeypots, die in vielen Umgebungen – auch bei uns bei Zscaler – nativ in die Plattform integriert sind. 

Die Kombination aus großem Datenvolumen, präziser Verhaltensanalyse und gezieltem Täuschungsmechanismus ermöglicht es, Angreifer frühzeitig zu erkennen, sie gezielt auf kontrollierte Systeme umzuleiten und ihr Verhalten dort weiter zu analysieren. Der Clou dabei ist, dass diese Honeypots nicht generisch sind, sondern individuell auf die Kundenumgebung abgestimmt werden: Wir kopieren zum Beispiel Active Directory-Strukturen oder SAP-Systeme und erzeugen realitätsnahe Templates, die zu 80 bis 90 Prozent wie die produktiven Umgebungen aussehen. 

Wenn die KI erkennt, dass sich ein Nutzer plötzlich anders verhält – etwa indem er statt fünf plötzlich 25 Applikationen aufruft – wird er nicht sofort blockiert, sondern zunächst auf den Honeypot umgeleitet. Dort wird das Verhalten weiter beobachtet, und je nach Interaktion werden automatisiert Gegenmaßnahmen angestoßen. 

Diese Art von Echtzeitanalyse und Reaktion wäre manuell schlicht nicht zu bewältigen, schon gar nicht in großen Organisationen mit 30.000 oder mehr Mitarbeitenden. Die Zahl der Signale, die täglich auf SOC- oder CERT-Teams einströmen, ist enorm, oft sprechen wir von 10.000 bis 15.000 Meldungen am Tag. Moderne SIEM-Lösungen wie Splunk oder Microsoft Sentinel helfen dabei, diese Zahl auf einige hundert relevante Events zu reduzieren. Aber auch diese wenigen hundert müssen analysiert und priorisiert werden, ein Aufwand, der besonders kleinere Teams schnell überfordert. 

Hier greift die Stärke von KI: Sie hilft nicht nur bei der Vorfilterung und Priorisierung, sondern kann – unter klar definierten Rahmenbedingungen – auch erste Gegenmaßnahmen automatisiert einleiten. Das entlastet die Teams, reduziert das Risiko menschlicher Überforderung und verhindert, dass kritische Vorfälle in der Flut an False Positives untergehen. 

Gerade durch unser Plattformdesign und die Datenbasis, die wir täglich verarbeiten, können wir dieses Zusammenspiel von Erkennung, Täuschung und Reaktion sehr effektiv gestalten. Das Zusammenspiel aus klassischer Sicherheitslogik, Verhaltensmodellen und KI-basierter Automatisierung ist aus unserer Sicht heute nicht mehr optional. Es ist ein notwendiger Baustein, um moderne Cyberrisiken wirksam zu managen. 

Wie lässt sich künstliche Intelligenz im Sicherheitskontext sinnvoll zur risikobasierten Steuerung von Gegenmaßnahmen einsetzen? Und wo bleibt die Entscheidungshoheit bewusst beim Menschen? 

Ein zentraler Vorteil von KI liegt in ihrer Fähigkeit, erste Gegenmaßnahmen dynamisch und risikobasiert zu steuern – ohne dass es gleich extreme Ausmaße annimmt. 

Es geht dabei nicht darum, sofort ganze Systeme zu isolieren oder Nutzer zu sperren, sondern eher um abgestufte Reaktionen, die sich an der realen Bedrohungslage orientieren. Wenn beispielsweise ein geringes Nutzerrisiko festgestellt wird, kann automatisiert ein zusätzlicher Authentifizierungsfaktor angefordert werden. So stellt man sicher, dass der Benutzer oder die Benutzerin legitim ist, ohne den Arbeitsfluss unnötig zu stören. 

Steigt das Risiko, lassen sich über KI auch gezielt Zugriffsrechte temporär beschränken, etwa so, dass der Nutzer weiterhin auf das Internet oder Intranet zugreifen kann, jedoch keinen Zugang mehr zu besonders sensiblen Bereichen erhält. Solche Maßnahmen lassen sich bereits heute weitgehend automatisiert und ohne menschliches Zutun umsetzen. Und sie tragen erheblich zur Risikominimierung im operativen Alltag bei. 

Bei kritischen Szenarien – etwa wenn es um das Sperren von Benutzerkonten, Geräten oder ganzen Netzwerksegmenten geht – ist hingegen menschliche Entscheidungskompetenz gefragt. Solche Maßnahmen können tiefgreifende Auswirkungen auf den Geschäftsbetrieb haben und sollten deshalb nicht allein auf KI-Basis ausgelöst werden.

Deshalb empfehlen wir bei Zscaler klar, KI heute als einen intelligenten Hinweisgeber zu verstehen: Sie kann Risiken frühzeitig erkennen, Zusammenhänge aufzeigen, vorfiltern und erste automatisierte Maßnahmen einleiten. Die Verantwortung für weitreichende Entscheidungen bleibt jedoch bewusst beim Menschen. 

Natürlich wird sich dieses Verhältnis in Zukunft weiterentwickeln, insbesondere dann, wenn die Qualität und Verlässlichkeit von KI-Systemen weiter zunimmt. Aber gerade deshalb ist es entscheidend, dass die heute eingesetzten Modelle nachvollziehbar arbeiten und im Ernstfall auf transparente Weise erklären können, wie sie zu ihrer Einschätzung gekommen sind. Nur so entsteht das nötige Vertrauen sowohl auf Seiten der Unternehmen als auch bei den Menschen, die mit der Technologie arbeiten. 

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen


Wie wichtig ist das technologische Grunddesign, wenn es um den sicheren und kontrollierten Einsatz von KI in der Automatisierung von Sicherheitsmaßnahmen geht – und welche Rolle spielt dabei das Zero-Trust-Prinzip? 

Am Ende hängt sehr viel davon ab, wie die Technologie von Grund auf gestaltet ist. Genau deshalb bringe ich das Thema Zero Trust auch immer wieder ins Spiel – weil es eine Architektur vorgibt, in der Vertrauen grundsätzlich nicht vorausgesetzt wird, sondern jede Verbindung, jeder Zugriff, jedes Gerät und jeder Benutzer immer wieder überprüft wird. 

Zero Trust basiert auf einer fein granulierten Zugriffslogik, die sich an konkreten Richtlinien und Echtzeitbewertungen orientiert und nicht an statischen Vertrauensannahmen. In einem derartigen System lassen sich mit KI tatsächlich viele Prozesse automatisieren, ohne dass man gleich große Risiken eingeht. 

Denn durch die kontinuierliche Verifikation auf mehreren Ebenen – Gerät, Benutzer, Kontext – kann man gezielt steuern, wo Automatisierung sinnvoll ist und in welchen Bereichen sie zu riskant wäre. Natürlich gilt auch hier: Wenn es um kritische Entscheidungen geht, wie etwa das Sperren eines Nutzers oder das Abschalten von Zugriffsrechten, braucht es heute immer noch den Gegencheck durch einen menschlichen Experten oder eine Expertin. 

Durch ein geeignetes technologisches Design – mit Prinzipien wie Zero Trust – entsteht die Grundlage, damit KI ihr Potenzial kontrolliert entfalten kann, ohne dass wir die Steuerung vollständig aus der Hand geben. 

Welche konkreten Risiken bringt der Einsatz von KI im Unternehmensumfeld mit sich? Wie kann man ihnen mit technischer und organisatorischer Kontrolle begegnen? 

DLP, also der Schutz sensibler Daten im Kontext von KI, ist sicher eines der größten Themen, vor allem in bestehenden Infrastrukturen. 

Das Risiko liegt dabei nicht nur in einem technischen Fehlverhalten der KI, sondern ganz oft schlicht beim Menschen. Klassisches Szenario: Ein Mitarbeiter soll Dokumente klassifizieren: Ist dieses Dokument vertraulich oder öffentlich? Und da passieren Fehler. Da landen Gehaltszettel, Vorstandsmemos oder andere vertrauliche Informationen auf öffentlichen Plattformen oder in KI-Modellen, weil sie falsch eingestuft oder bewusst heruntergestuft wurden. 

Hier kann KI tatsächlich helfen, nicht nur durch reaktive, sondern vor allem durch proaktive Maßnahmen. Beispielsweise durch Warnhinweise an die Mitarbeitenden, wenn sie sensible Inhalte an unsichere Orte hochladen wollen. Oder durch automatisches Blockieren von Übertragungen, bei denen ein Risiko erkannt wird, und das alles, ohne den Geschäftsbetrieb zu stören. 

Damit das funktioniert, braucht es aber ein robustes, intelligentes Setup. Wir bei Zscaler setzen dabei auf ein multiples Modell: Viele kleinere spezialisierte KI-Modelle, die parallel in tausenden Cloud-Instanzen laufen und kontinuierlich nachtrainiert werden. Das bietet Stabilität, reduziert das Risiko durch Datenmanipulation und sorgt dafür, dass Fehler in Einzeldaten das Gesamtsystem nicht aus der Bahn werfen. 

Ein anderer ganz zentraler Punkt ist der ethische Umgang mit KI. Denn was viele Unternehmen unterschätzen, ist: Es geht nicht nur um die Modelle selbst, sondern auch um die Kontrolle über die Inhalte, die diese Modelle erzeugen. 

Heute nutzen viele Unternehmen vielleicht fünf bis zehn KI-Modelle. In absehbarer Zeit könnten es Hunderte sein: für Marketing, Finance, HR, Kundenkommunikation, intern wie extern. Wenn man da keine Kontrollmechanismen einzieht, verliert man sehr schnell die Übersicht. 

Deshalb haben wir eine Lösung vorgestellt, die genau hier ansetzt: Zscaler AI Guard. Das ist im Grunde eine doppelte Sicherheitsbarriere. Sie sitzt vor und hinter jedem beliebigen KI-Modell. Prompt-Eingaben werden geprüft, ebenso die Ausgaben. Das Ganze funktioniert in Echtzeit. 

Und das ist auch nötig, wenn man sieht, dass auch bei führenden KI-Modellen wie Grog oder auch ChatGPT Ausrutscher passieren können. Trotz aller Qualität in der Forschung und Entwicklung: Ohne zusätzliche Schutzmaßnahmen können problematische Inhalte durchrutschen. 

Wir brauchen also keine KI, die allein gut funktioniert. Wir benötigen eine Lösung, die kontrollierbar ist. Und wir als Anbieter sehen uns in der Verantwortung, hier Systeme bereitzustellen, die Unternehmen helfen, Sicherheit, Compliance und Ethik in Einklang zu bringen. 

Wie lässt sich der KI-Einsatz in Unternehmen sinnvoll gestalten – gerade im Kontext von Sicherheit und strategischer Innovation? 

Um KI kommen wir nicht herum. Sie ist heute fester Bestandteil moderner Infrastrukturen. Aber entscheidend ist, wie wir sie einsetzen. Unser Ziel ist es, dazu beizutragen, dass eine sichere und verlässliche KI auf dem Markt entsteht und auch im Unternehmen verantwortungsvoll genutzt wird. 

Wenn wir das Ganze mit dem Zero-Trust-Ansatz kombinieren – also einem Sicherheitsprinzip, das grundsätzlich niemandem und nichts automatisch vertraut, sondern jeden Zugriff überprüft, egal ob vom Gerät, vom Nutzer oder vom Standort – dann entfaltet KI ihr volles Potenzial. Nicht nur für die Cybersicherheit, sondern auch strategisch: Damit lassen sich Innovationen sicher und kontrolliert umsetzen, ohne die Unternehmenswerte oder sensible Daten zu gefährden. 

Zero Trust zusammen mit KI: Das ist aus unserer Sicht der Schlüssel, um Technologie vertrauenswürdig und zukunftsfähig zu machen.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*