„Bei KI braucht es Offenheit, Neugier und Lernbereitschaft“

KI nimmt in der IT-Sicherheit eine ambivalente Rolle ein: Sie treibt Innovationen voran und unterstützt die Abwehr, wirkt zugleich jedoch als Katalysator für neue Bedrohungen und wirft ethische Fragen auf. Entsprechend vielschichtig gestaltete sich der ITWelt.at Roundtable zu Security und künstlicher Intelligenz. Die Redaktion sprach im Rahmen der Diskussion mit Dr. Ronke Babajide, Managerin System Engineering Enterprise bei Fortinet. [...]

Dr. Ronke Babajide, Managerin System Engineering Enterprise bei Fortinet. (c) timeline/Rudy Handl
Dr. Ronke Babajide, Managerin System Engineering Enterprise bei Fortinet. (c) timeline/Rudy Handl

Bitte skizzieren Sie Ihren Aufgabenbereich. Und: Wie sehen Sie persönlich den Umgang mit künstlicher Intelligenz?

Ich bin seit drei Jahren bei Fortinet tätig, einem weltweit agierenden Anbieter von Cyber-Security-Lösungen. In meiner Funktion verantworte ich das System-Engineering-Team im Enterprise-Bereich. Das bedeutet, ich führe ein Team technischer Spezialistinnen und Spezialisten und stelle sicher, dass unsere Kunden optimal betreut werden. Selbstverständlich spielt auch künstliche Intelligenz eine zunehmend wichtige Rolle in unseren Produkten.

Im Umgang mit künstlicher Intelligenz schlagen in mir tatsächlich zwei Herzen. Auf der einen Seite bin ich persönlich ein großer Fan. Ich nutze KI intensiv und bin fasziniert von den Möglichkeiten, die sie eröffnet. Auf der anderen Seite sehe ich aber auch Entwicklungen, die mich nachdenklich stimmen, teils sogar abschrecken. Es wird, um es salopp zu sagen, oft Schindluder mit der Technologie getrieben. Das reicht von fragwürdigen Anwendungen bis hin zu gravierenden gesellschaftlichen Auswirkungen.

Trotz dieser Kritik bin ich überzeugt: Künstliche Intelligenz ist eine Technologie mit enormem Potenzial. Richtig eingesetzt kann sie nicht nur viel bewirken, sondern auch echten Mehrwert schaffen – und dabei sogar Spaß machen.

Inwiefern verändert der flächendeckende Einsatz von künstlicher Intelligenz sowohl die Angriffs- als auch die Verteidigungsperspektive in Unternehmen?

Die Bedrohungslage hat sich durch den zunehmenden Einsatz künstlicher Intelligenz spürbar verändert. Wir sind heute an einem Punkt, an dem Unternehmen kaum noch darum herumkommen, KI in ihre Prozesse zu integrieren. Damit verschiebt sich automatisch die Angriffsfläche innerhalb eines Unternehmens, weil mittlerweile nahezu flächendeckend KI-Tools genutzt werden.

Damit gehen zahlreiche neue Herausforderungen einher. Zum einen betrifft das die Angreiferseite: KI ermöglicht es heute auch Personen mit sehr begrenztem technischem Wissen, Cyberangriffe durchzuführen. Gleichzeitig werden diese Angriffe deutlich gezielter, maßgeschneiderter und lassen sich in bislang nicht möglichem Ausmaß automatisieren und skalieren.

Zum anderen stehen Unternehmen vor der Frage, welche KI-Anwendungen überhaupt eingesetzt werden, wie diese verwendet werden – und vor allem, welche Daten darin verarbeitet werden. In vielen Fällen geht es dabei um sensible Informationen. Mitarbeitende nutzen KI, um produktiver zu arbeiten, ohne sich immer darüber im Klaren zu sein, dass sie unter Umständen vertrauliche Daten in öffentliche Systeme einspeisen. Das kann zu einem massiven Datenabfluss führen – inklusive Geschäftsgeheimnissen, die dann möglicherweise für andere zugänglich werden.

Hinzu kommt ein relativ neues Phänomen: Prompt Injection. Hier nutzen Angreifer gezielt manipulative Eingaben, um KI-Systeme zu beeinflussen, etwa durch versteckte Anweisungen in E-Mails, die das Verhalten eines Modells verändern können. Dadurch entstehen völlig neue Angriffsvektoren, die mit klassischen Sicherheitskonzepten nur schwer zu erkennen sind.

Eines geht in heutigen Diskussionen unter: KI ist kein neues Phänomen. Viele Unternehmen arbeiten bereits seit Jahren mit Machine-Learning-Modellen, etwa um Verhaltensmuster oder Angriffsstrategien zu erkennen. Was wir aktuell erleben, ist vielmehr eine neue Ausprägung dieser Technologie, vor allem durch die Verbreitung von LLMs, also Large Language Models. Sie haben die künstliche Intelligenz in den Mainstream gebracht mit all den Chancen, aber eben auch mit neuen Risiken.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Wie verändern KI-gestützte Anwendungen unser Verständnis von IT-Sicherheit?

In immer mehr Produkten, die wir täglich nutzen, sind LLMs oder andere Formen künstlicher Intelligenz integriert. Das schafft nicht nur neue Funktionalitäten, sondern öffnet auch zusätzliche Einfallstore für potenzielle Angriffe. Ich hatte vorhin bereits das Thema Prompt Injection angesprochen – ein gutes Beispiel dafür, wie sich durch die Vorverarbeitung von Inhalten durch KI ganz neue Angriffsmöglichkeiten ergeben.

Inzwischen ist es möglich, dass eine manipulierte E-Mail gar nicht mehr geöffnet werden muss, um Schaden zu verursachen, weil das KI-System sie bereits analysiert und verarbeitet, bevor der Mensch sie überhaupt sieht. Angreifende zielen also zunehmend auf die vorgelagerten Systeme ab.

Diese Art von Angriffsszenarien multipliziert sich gerade, und viele Unternehmen sind sich der Tragweite noch nicht ausreichend bewusst. Denn es sind nicht nur die großen, zentral eingesetzten Plattformen betroffen. Auch kleine KI-basierte Tools oder scheinbar harmlose Produktivitäts-Apps, die sich Nutzer und Nutzerinnen individuell installieren, können neue Schwachstellen darstellen.

Deshalb braucht es ein Umdenken im Sicherheitsverständnis. Unternehmen müssen viel genauer hinsehen: Welche Tools werden verwendet? Wie werden sie eingesetzt? Welche Berechtigungen haben sie? Und wie sind sie abgesichert?

Hinzu kommt ein weiterer Aspekt: das Thema Supply Chain. Viele der Risiken, die wir aus klassischen Lieferketten kennen, tauchen nun auch im KI-Kontext auf. Denn meist wissen wir nicht, wer die Modelle trainiert hat, wie sie trainiert wurden oder mit welchen Daten.

Außer man hat das Modell selbst entwickelt, was nach wie vor die Ausnahme ist, bleibt letztlich unklar, was man sich mit einer KI-Integration tatsächlich ins eigene System holt. Diese Intransparenz schafft neue Abhängigkeiten und Sicherheitsrisiken, die in der bestehenden Sicherheitsarchitektur oft noch nicht ausreichend berücksichtigt sind.

Dr. Ronke Babajide, Managerin System Engineering Enterprise bei Fortinet. (c) timeline/Rudy Handl

Wie viel Vertrauen können wir in KI-gestützte Entscheidungen setzen, wenn deren innere Logik für den Menschen kaum noch nachvollziehbar ist? Wo verlaufen die Grenzen zwischen nützlicher Automatisierung und intransparenter Blackbox?

Ich denke, es ist wichtig, an dieser Stelle einen grundlegenden Unterschied zu betonen. Viel von dem, was heute bereits erfolgreich mit KI gemacht wird – etwa in der medizinischen Diagnostik – basiert auf klassischem Pattern Matching. Ein gutes Beispiel ist die kürzlich veröffentlichte Studie des MIT, in der gezeigt wurde, dass bestimmte KI-Modelle in der Lage sind, Brustkrebs bis zu fünf Jahre vor einer klinischen Diagnose zu erkennen. Das ist beeindruckend und es zeigt die Stärke von datengetriebenem Machine Learning, das auf klaren Korrelationen und statistischen Mustern basiert.

Was heute aber vielfach als neue Generation von KI propagiert wird – insbesondere im Bereich der LLMs – geht deutlich darüber hinaus. Hier stoßen wir auf Systeme, die Entscheidungen treffen, ohne dass wir nachvollziehen können, wie genau sie zu diesem Ergebnis gekommen sind. Es entsteht eine Blackbox-Dynamik, bei der der Output da ist, aber der Weg dorthin verborgen bleibt.

Gerade im Bereich der IT-Sicherheit kann das problematisch sein. Wenn ein System etwa sagt, das war ein Angriff oder das war keiner, stellt sich sofort die Frage: Warum? Auf welcher Grundlage? Kann ich die Entscheidung überprüfen oder muss ich sie einfach akzeptieren?

Ich habe kürzlich einen Vortrag von Anthropic gehört, einem Unternehmen, das sich explizit mit der ethischen Entwicklung von KI beschäftigt. Dort wurde genau dieses Thema aufgegriffen. Anthropic hat sich bewusst dazu entschieden, ein eigenes Security-Tool zu bauen, weil man den bestehenden Blackbox-Modellen nicht genug vertraut. Die Argumentation: Wenn wir nicht verstehen können, wie eine sicherheitsrelevante Entscheidung zustande kommt, können wir sie auch nicht verantworten.

Die Hersteller im IT-Security-Bereich arbeiten in der Regel mit sehr großen Datenmengen leiten daraus leistungsfähige Sicherheitslösungen. Aber lässt sich in jedem Fall unmittelbar erklären, warum ein bestimmtes Resultat erzeugt wurde? Gerade bei großen Sprachmodellen erleben wir immer wieder, dass die Antworten zwar plausibel klingen, aber nicht zwingend nachvollziehbar oder korrekt sind.

Deshalb ist es entscheidend, in der Diskussion über KI nicht nur auf die Effizienz oder den praktischen Nutzen zu schauen, sondern auch die Frage der Erklärbarkeit ernst zu nehmen, insbesondere dort, wo sicherheitsrelevante Entscheidungen betroffen sind.

Warum ist es so wichtig, zwischen verschiedenen Arten von künstlicher Intelligenz zu unterscheiden?

Ich denke, ein zentrales Problem in der aktuellen Diskussion über künstliche Intelligenz ist, dass der Begriff selbst extrem unscharf verwendet wird. Jeder spricht über KI, aber oft ist gar nicht klar, was genau damit gemeint ist. Diese begriffliche Unschärfe führt dazu, dass viele Diskussionen aneinander vorbeigehen – oder Missverständnisse entstehen, was KI eigentlich kann und was nicht.

Meiner Meinung nach muss man sehr klar unterscheiden: Sprechen wir über klassisches Machine Learning, also über Systeme, die auf Basis statistischer Verfahren Muster erkennen und daraus Entscheidungen ableiten? Oder meinen wir Large Language Models, also jene neuen Modelle, die auf riesigen Datenmengen trainiert wurden, um sprachbasierte Inhalte zu generieren?

Denn diese beiden Ansätze funktionieren völlig unterschiedlich. Klassisches Machine Learning lässt sich meist noch relativ gut erklären und nachvollziehen. Es erkennt bekannte Muster in den Daten, wie beispielsweise bei der Erkennung von Anomalien oder beim automatisierten Klassifizieren von Objekten.

LLMs hingegen arbeiten auf einer anderen Ebene. Sie erzeugen neue Inhalte, indem sie auf Trainingsdaten zurückgreifen und daraus statistisch wahrscheinlich wirkende Aussagen formulieren. Was dabei herauskommt, ist nicht unbedingt faktisch korrekt, es ist lediglich sprachlich stimmig und plausibel. Das ist ein grundlegend anderer Ansatz als beim klassischen Machine Learning.

Hinzu kommt ein weiterer Aspekt: der Marketingdruck. Inzwischen wird nahezu jede Software als „KI-basiert“ beworben – unabhängig davon, ob tatsächlich intelligente Mechanismen dahinterstecken oder nicht. Viele Unternehmen stehen unter dem Druck, dem Markt gegenüber irgendeine Form von KI zu demonstrieren, weil es erwartet wird. Gleichzeitig gibt es aber auch eine gewisse KI-Müdigkeit: Viele Kunden reagieren inzwischen eher skeptisch, wenn sie das Schlagwort hören, weil es in der Vergangenheit zu inflationär verwendet wurde.

Deshalb halte ich es für essenziell, in der Diskussion sauber zu differenzieren. Denn wenn wir heute von KI sprechen, meinen wir in den meisten Fällen LLMs. Und das ist nicht nur technologisch, sondern auch sicherheitstechnisch eine ganz andere Dimension.

Droht in der aktuellen Debatte um generative KI gerade im Bereich Cybersecurity die klassische Verhaltensanalyse und das datenbasierte Lernen als zentrale Bestandteile unterzugehen?

Die Formen der datengetriebenen Analyse – etwa zur Erkennung von Anomalien im Netzwerkverkehr oder im Benutzerverhalten – funktionieren inzwischen ausgesprochen zuverlässig. Und sie bilden nach wie vor das Rückgrat vieler Sicherheitslösungen, insbesondere in der Frühphase eines Angriffs. Trotzdem werden sie in der öffentlichen Diskussion häufig ausgeblendet, weil der Fokus heute fast ausschließlich auf generativen LLMs liegt.

Diese Sprachmodelle kommen aktuell vor allem im Bereich der Reaktion zum Einsatz, zum Beispiel bei der automatisierten Triage von Incidents oder im Kontext von Security Operations. Sie sind nützlich, keine Frage, aber sie ersetzen nicht die etablierten Verfahren im Bereich der präventiven Erkennung.

Das Problem ist, dass in der Kommunikation nach außen, gerade gegenüber Kunden, oft nur noch „KI“ im Sinne von LLMs verstanden wird. Klassische Machine-Learning-Modelle oder regelbasierte Verhaltensanalysen gelten da fast schon als veraltet, obwohl sie faktisch den Großteil der Schutzleistung ausmachen.

Und das frustriert auch, weil man merkt: Das, was technisch wirklich gut funktioniert, wird kaum noch wahrgenommen, weil es eben nicht in das aktuelle KI-Narrativ passt. Dabei ist genau diese Basisarbeit essenziell für jede moderne Sicherheitsarchitektur.

Welche gesellschaftlichen Folgen hat aus Ihrer Sicht der Einsatz intelligenter Systeme ohne klare rechtliche und ethische Leitplanken?

Ich sehe darin ein grundlegendes gesellschaftliches Thema. Das zeigt sich besonders deutlich an einem sehr realen Fall aus den Niederlanden: Dort wurde vor einigen Jahren ein KI-System im Sozialbereich eingesetzt, um potenziellen Sozialbetrug aufzudecken. Die Idee war, mit Hilfe künstlicher Intelligenz Entscheidungen effizienter und objektiver zu gestalten.

Das Ergebnis war jedoch ein massiver Skandal. Zehntausende Menschen wurden fälschlich beschuldigt, Sozialleistungen erschlichen zu haben. Rückforderungen wurden ausgesprochen, Strafanzeigen gestellt – und das alles basierend auf fehlerhaften Bewertungen des eingesetzten Systems. Für einige Betroffene hatte das dramatische Konsequenzen, bis hin zu Suiziden.

Es hat fast ein Jahrzehnt gedauert, bis die niederländische Regierung öffentlich Verantwortung übernommen und sich entschuldigt hat. Politisch gab es zwar Konsequenzen, einige Rücktritte, die später teilweise revidiert wurden, doch für die Betroffenen blieb vielfach unklar, wer tatsächlich zur Verantwortung gezogen werden konnte.

Genau hier liegt das Kernproblem: Wenn KI-Systeme Entscheidungen treffen, deren Zustandekommen intransparent ist und bei denen es keine klare Haftung gibt, entsteht ein gefährliches Vakuum. Menschen werden mit den Folgen allein gelassen, während die Verantwortlichkeit zwischen Technologie, Verwaltung und Politik verschwimmt.

Solche Beispiele machen deutlich, dass der Einsatz von KI nicht nur eine technische oder regulatorische Frage ist, sondern eine gesellschaftliche. Es braucht verbindliche ethische und rechtliche Rahmenbedingungen – und vor allem klare Zuständigkeiten. Denn wenn Systeme über Menschen urteilen, ohne dass jemand die Verantwortung übernimmt, steht am Ende nicht nur die Technologie, sondern das Vertrauen in staatliches Handeln insgesamt zur Disposition.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Reicht der EU AI Act aus, um den globalen Herausforderungen rund um den verantwortungsvollen Einsatz von KI gerecht zu werden?

Ich möchte in dem Zusammenhang auf zwei Punkte hinweisen, die mir besonders wichtig erscheinen. Erstens: Es ist gut und absolut notwendig, dass es den EU AI Act inzwischen gibt. Er stellt einen bedeutenden Schritt in Richtung verbindlicher Rahmenbedingungen für den Einsatz künstlicher Intelligenz dar. Aber man darf dabei nicht vergessen, dass es sich um eine europäische, und genau genommen nicht einmal um eine gesamteuropäische Lösung handelt.

Viele von uns sind in global agierenden Unternehmen tätig. Und was in der EU als rechtlich bindend gilt, hat in anderen Weltregionen keine Gültigkeit. Gerade bei einem so grenzüberschreitenden Thema wie KI ist das ein entscheidender Schwachpunkt. Die Anforderungen und Standards, die etwa in den USA, Asien oder auch in autoritär geführten Staaten gelten – oder eben nicht – weichen massiv von den europäischen Vorstellungen ab.

Zweitens betrifft das einen zentralen Punkt des AI Acts, den ich ausdrücklich unterstütze: die Pflicht zur Nachvollziehbarkeit bei Hochrisiko-Systemen. Besonders in sensiblen Bereichen wie Identitätsmanagement, kritischer Infrastruktur oder automatisierten Entscheidungsprozessen ist es richtig und notwendig, dass hier strenge Anforderungen gelten.

Allerdings befinden wir uns derzeit in einer Phase, in der der Markt geradezu überflutet wird mit KI-Tools, deren Herkunft, Qualität und Trainingsbasis oft völlig unklar sind. Das führt zu einer regulatorischen Grauzone. Der AI Act versucht nun, Ordnung hineinzubringen. Aber wie gut das tatsächlich in der Praxis funktionieren wird, bleibt abzuwarten.

Ich persönlich bin eher skeptisch, was die Umsetzbarkeit betrifft. Insbesondere angesichts des zunehmenden internationalen Drucks, etwa aus den USA, wo derzeit eher Bestrebungen laufen, KI-Regulierung wieder zu lockern oder auf Freiwilligkeit umzustellen.

Welche Risiken entstehen, wenn KI-basierte Sicherheitsmaßnahmen weitgehend automatisiert werden?

Das ist ein Punkt, der aus unserer Sicht bei Fortinet besonders relevant ist: das Risiko, das durch die Automatisierung von Sicherheitsmaßnahmen selbst entsteht. Denn genau hier öffnet sich ein neuer Angriffsvektor. Wenn Angreifer wissen, dass bestimmte Reaktionen automatisiert ablaufen, können sie gezielt versuchen, diese Mechanismen zu manipulieren, etwa um Systeme durch bewusst ausgelöste Fehlalarme in die Isolation zu treiben oder Zugriffsketten zu unterbrechen.

Das bedeutet: Automatisierung bringt zwar Effizienz, aber sie schafft auch neue Angriffsflächen. Deshalb sehen wir bei Fortinet den Mehrwert von KI vor allem in zwei Bereichen. Einerseits in der Fähigkeit, große Datenmengen extrem schnell zu korrelieren, was uns durch unsere globale Präsenz auch ermöglicht wird. Wir haben nach wie vor einen der größten Firewall-Installationen weltweit im Einsatz, aus denen wir kontinuierlich Telemetriedaten erhalten. Diese fließen in unsere FortiGuard-Services ein und bilden die Basis für präzise Threat Intelligence und Zero-Day-Erkennung.

Andererseits setzen wir KI gezielt im Umfeld unserer SIEM- und SOC-Systeme ein, insbesondere bei der Triage. Wenn hunderte sicherheitsrelevante Events ausgewertet werden müssen, helfen KI-gestützte Systeme, die Relevanz zu bewerten, Zusammenhänge herzustellen und Vorfälle effizienter zu priorisieren. Das ist gerade im Kontext großer, verteilter Infrastrukturen ein enormer Vorteil, weil es die Analysten erheblich entlastet.

Was die Automatisierung betrifft, sehen wir die Grenzen allerdings sehr klar. Für weniger kritische Komponenten, etwa einen Benutzer-Client, kann man eine automatische Quarantäne noch verantworten. Aber sobald es um Systeme mit potenziell größerem Einfluss auf den Betrieb geht, wird jede automatische Maßnahme zur potenziellen Gefahr, wenn sie nicht durch den Menschen abgesichert ist.

Dr. Ronke Babajide, Managerin System Engineering Enterprise bei Fortinet. (c) timeline/Rudy Handl

Wie kann man den verantwortungsvollen Einsatz von KI-gestützten Security-Tools sicherstellen? Welche Verantwortung tragen dabei Hersteller, aber auch die Unternehmen selbst?

Wenn man sich heute als Unternehmen für ein Cybersecurity-Tool entscheidet, ist es nahezu unausweichlich, dass in irgendeiner Form künstliche Intelligenz integriert ist. Das ist längst Standard – nicht zuletzt, weil auch Angreiferseite KI einsetzt. Das bedeutet aber nicht, dass man diesen Technologien blind vertrauen kann oder sollte. Ganz im Gegenteil: Es braucht weiterhin eine menschliche Kontrollinstanz. Und die wird auf absehbare Zeit auch nicht wegfallen.

Gerade im mitteleuropäischen Raum sieht man zwei sehr unterschiedliche Haltungen gegenüber KI. Auf der einen Seite stehen die Technikgläubigen, die darauf vertrauen, dass Systeme grundsätzlich korrekt arbeiten. Auf der anderen Seite gibt es die Skeptiker, die sich KI-Technologie gegenüber eher ablehnend verhalten. Der pragmatische Weg liegt, wie so oft, in der Mitte: Wir brauchen KI, aber wir müssen sie verantwortungsvoll und mit der nötigen Kontrolle einsetzen.

Das betrifft nicht nur die Verteidigung, sondern auch die Einführung und den Betrieb von KI-Tools im Unternehmen selbst. Wer solche Systeme implementiert, muss sich bewusst mit einer Reihe von Fragen auseinandersetzen: Welche Daten dürfen verarbeitet werden? Wer hat Zugriff auf diese Systeme? Wie verhindere ich, dass Schatten-IT entsteht, etwa durch Mitarbeiter, die selbstständig KI-Dienste aus der Cloud nutzen und dort möglicherweise sensible Unternehmensdaten hochladen?

Hinzu kommt die Verantwortung gegenüber der Supply Chain. Wenn ich ein KI-Tool einsetze, muss ich wissen, wie es trainiert wurde, auf welchen Datensätzen es basiert, wie die Modelle gepflegt und abgesichert werden. Und auch wenn das für viele Unternehmen schwer nachvollziehbar scheint: Die Verantwortung, diese Fragen zu stellen, liegt beim Kunden. Hersteller müssen darauf Antworten liefern können, transparent und nachvollziehbar.

Langfristig wird es hier auch weitere Regulierungen geben müssen, ähnlich wie sie im Bereich klassischer Cybersecurity bereits existieren. Bis dahin bleibt es Aufgabe der Unternehmen, kritisch zu hinterfragen, wie vertrauenswürdig ihre Technologiepartner sind und wie sie selbst Prozesse etablieren, um die sichere Nutzung von KI im Alltag zu gewährleisten.

Welche Rolle spielt die Infrastruktur bei der sicheren Nutzung von KI? Wann lohnt sich der Schritt zur eigenen Instanz oder einem privaten KI-Modell?

Wenn wir über Datensicherheit im Kontext von künstlicher Intelligenz sprechen, darf man die technische Infrastruktur nicht außer Acht lassen. Es reicht nicht, sich nur auf die Frage zu konzentrieren, welche Daten verarbeitet werden, entscheidend ist auch, wo und wie diese Daten verarbeitet werden.

Gerade bei cloudbasierten KI-Diensten stellt sich die berechtigte Frage: Arbeite ich in einer geteilten Umgebung, in einem Multi-Tenant-Modell, oder betreibe ich eine eigene, isolierte Instanz? Letzteres kann durchaus sinnvoll sein, vor allem dann, wenn es um besonders sensible oder geschäftskritische Daten geht.

Wer maximale Kontrolle über seine Daten behalten möchte, wird früher oder später nicht umhin kommen, sich mit eigenen Setups auseinanderzusetzen. Das bedeutet: Einen eigenen Tenant betreiben, eigene Tools entwickeln oder bestehende Lösungen so kapseln, dass keine externen Einflüsse möglich sind. Natürlich ist das mit Aufwand verbunden – sowohl organisatorisch als auch finanziell.

Es ist am Ende eine Abwägungsfrage: Wie hoch ist das Risiko, wie kritisch sind die Daten und wie viel Kontrolle will oder muss ich behalten? Unternehmen, die bei diesen Punkten keine Kompromisse eingehen wollen, sollten die nötigen Ressourcen bereitstellen, um ihre KI-Umgebungen entsprechend zu gestalten. Denn nur dann lässt sich mit der nötigen Sicherheit sagen: Die Daten bleiben dort, wo sie hingehören.

Wie gehen wir als Gesellschaft eigentlich mit dem Thema KI um – und sind die Menschen überhaupt bereit dafür?

Schulungen sind ein Thema, das derzeit viel zu kurz kommt. Ich selbst bin wahrscheinlich ein typischer Early Adopter – ich hatte schon eine Handysignatur, als das kaum jemand kannte, weil ich solche Technologien einfach praktisch finde. Aber die Realität sieht oft anders aus. Viele Menschen sind weder technikbegeistert noch technikaffin – im Gegenteil, viele geben sich eher technikskeptisch oder sogar technikscheu.

Und genau da liegt ein großes gesellschaftliches Thema. Denn mit KI erleben wir gerade einen Umbruch, nicht nur technologisch, sondern auch im Denken, im Umgang mit Information, im Vertrauen in Systeme. Es verändert, wie wir Nachrichten konsumieren, wie wir Informationen bewerten, wem wir glauben. Und das alles hat direkte Auswirkungen auf Sicherheitsfragen in Unternehmen.

Wenn Mitarbeitende Technologien nicht verstehen oder blind nutzen, entstehen neue Risiken. Deshalb geht es bei KI eben nicht nur um Tools und Technologie, es geht auch um Bildung, Aufklärung, digitale Mündigkeit. Und das ist eine Aufgabe, der wir uns nicht nur im Unternehmen, sondern auch als Gesellschaft stellen müssen.

Wie lassen sich Probleme wie Datenverlust im Zusammenhang mit KI am besten verhindern?

Der eigentliche Schlüssel dazu ist nicht immer die Technik, sondern wie wir als Menschen mit ihr umgehen. Die Gefahr des Datenabflusses entsteht oft nicht aus bösem Willen, sondern aus Gewohnheit. Viele Mitarbeitende sitzen den ganzen Tag vor dem Computer, sind es gewohnt, Informationen irgendwo einzugeben. Wenn es dann ein neues KI-Tool gibt, macht man einfach auf dieselbe Weise weiter, ohne groß darüber nachzudenken, ob es sich vielleicht um vertrauliche Informationen handelt.

Deshalb ist bei uns die Frage zentral: Wie können wir technisch verhindern, dass solche Daten abfließen, und gleichzeitig ein Bewusstsein dafür schaffen, was da eigentlich passiert?

Ein Ansatz, den wir verfolgen, ist eine technische Lösung, die nicht nur filtert und blockt, sondern auch unmittelbar einen Lerneffekt erzeugt. Wenn also ein User dabei ist, sensible Informationen einzugeben, poppt eine Warnung auf, die auch erklärt, was gerade passiert. Das hat einen viel stärkeren Trainingseffekt, als wenn einfach im Hintergrund etwas blockiert wird und der Nutzer, die Nutzerin, den Grund dafür nicht kennt. So schaffen wir nicht nur Kontrolle, sondern auch Verständnis – und genau das brauchen wir.

Denn die Wahrheit ist: Schulungen allein reichen nicht. Wir müssen kontinuierlich, im Arbeitsalltag, Feedback geben und das geht nur, wenn technische Systeme und Awareness-Maßnahmen Hand in Hand gehen. Es braucht diese Kombination aus DLP-Funktionalität und kontinuierlichem Lernen.

Und dann kommt noch der zweite Teil: die Angst. Viele Mitarbeitende sind verunsichert. Sie hören überall, KI nimmt Jobs weg, alles wird automatisiert – und was passiert mit mir? Das ist ein emotionales Thema. Und gerade da müssen wir gegensteuern. Nicht nur mit rationalen Argumenten, sondern indem wir zeigen, wie die Tools konkret im eigenen Arbeitsumfeld helfen können.

Was wäre aus Ihrer Sicht das wichtigste Fazit, wenn es um den Umgang mit KI in Unternehmen geht – speziell auch in der Cybersecurity?

Unternehmen sollten keine Angst davor haben, KI einzusetzen. Es gibt definitiv Einsatzbereiche, in denen sie echten Mehrwert bringt. Und auch im Bereich Cybersecurity sehe ich großes Potenzial.

Entscheidend ist dabei, sich wirklich bewusst Gedanken zu machen – über den Einsatz, über die Fähigkeiten der Systeme, über die Trainingsdaten und über die Auswirkungen. Vor allem aber auch über die Menschen, die damit arbeiten. Mitarbeiterschulungen sind essenziell sowohl was die allgemeinen KI-Tools betrifft, als auch die Sicherheitstools, die KI integriert haben.

Denn egal wie gut ein System ist: Am Ende braucht es immer noch menschliche Aufsicht. Man muss verstehen, wie ein Ergebnis zustande kommt und wann man es besser hinterfragt. Diese Fähigkeit wird zunehmend wichtiger.

Wir werden an diesem Thema nicht vorbeikommen. Im Gegenteil: Wer sich jetzt frühzeitig damit auseinandersetzt, wird in Zukunft in der Nutzung, aber auch in der Absicherung von KI-Systemen besser aufgestellt sein.

Angst bringt hier nichts. Offenheit, Neugier und Lernbereitschaft – das sind die besseren Begleiter im Umgang mit neuen Technologien.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*