KI & Security: „Wir müssen unsere Kontrollmechanismen grundsätzlich neu denken“ 

KI nimmt in der IT-Sicherheit eine ambivalente Rolle ein: Sie treibt Innovationen voran und unterstützt die Abwehr, wirkt zugleich jedoch als Katalysator für neue Bedrohungen und wirft ethische Fragen auf. Entsprechend vielschichtig gestaltete sich der ITWelt.at Roundtable zu Security und künstlicher Intelligenz. Die Redaktion sprach im Rahmen der Diskussion mit Dr. Klaus Gheri, Vorstandsvorsitzender sowie VP & GM Network Security bei Barracuda Networks. [...]

Dr. Klaus Gheri, Vorstandsvorsitzender sowie VP & GM Network Security bei Barracuda Networks. (c) timeline/Rudy Handl
Dr. Klaus Gheri, Vorstandsvorsitzender sowie VP & GM Network Security bei Barracuda Networks. (c) timeline/Rudy Handl

Wie verändert künstliche Intelligenz den Bereich Netzwerksicherheit – und welche Rolle spielt dabei Barracuda?

Barracuda verfolgt einen klaren Plattform-Ansatz und bietet ein breites Portfolio an IT-Security-Lösungen – von E-Mail- und Applikationssicherheit über Datensicherung und Archivierung bis hin zur Netzwerksicherheit, für die ich verantwortlich bin.

Unsere starke Verankerung in Österreich erklärt auch meine Rolle als Geschäftsführer der österreichischen AG. Von hier aus betreuen wir nicht nur den heimischen Markt, sondern auch Italien und Deutschland – ein eher untypischer Zuschnitt, der historisch gewachsen ist.

In meiner globalen Produktverantwortung für den Bereich Netzwerk begegnet mir künstliche Intelligenz auf vielen Ebenen – und das schon seit geraumer Zeit. Technologien wie Threat Protection oder Phishing-Erkennung basieren bereits seit Jahren auf KI-Ansätzen, die früher meist unter dem Begriff Machine Learning zusammengefasst wurden. Mit der Verbreitung von LLM-Modellen hat das Thema aber eine neue Dynamik und Tiefe erhalten.

Für uns ist künstliche Intelligenz längst ein fester Bestandteil der Produktentwicklung. Wir nutzen KI-Tools, integrieren fortlaufend neue Funktionen und arbeiten daran, bestehende Mechanismen intelligenter zu machen. Persönlich sehe ich mich dabei noch als Lernender – gerade weil sich die Technologie so rasant weiterentwickelt. Dieser stetige Lernprozess ist für mich essenziell, um den Einsatz von KI sinnvoll zu gestalten und gleichzeitig die Kontrolle über die Systeme zu behalten.

Wie verändert sich das Bedrohungsbild durch KI? Welche Rolle spielen dabei intelligente Assistenzsystem? 

Die Assistenzfunktion von künstlicher Intelligenz ist heute essenziell – gerade im Bereich Managed XDR. Dort unterstützen KI-Systeme Analysten dabei, in großen Datenmengen rasch erste Indikationen für einen Vorfall zu erkennen und anschließend auch bei der Einschätzung des Incidents zu helfen.

Wichtig bleibt dabei: Die finale Entscheidung liegt weiterhin beim Menschen. Wir sind von einem vollständigen Automatismus noch entfernt, und das ist aus heutiger Sicht auch richtig so. Dennoch zeichnet sich ab, wohin die Entwicklung gehen könnte. Und hier schließt sich der Kreis zur Agentic AI. 

Derzeit ist die Sicherheitsindustrie darauf ausgerichtet, den Menschen vor Angriffen zu schützen – etwa durch Phishing-Filter, automatisierte Erkennung von verdächtigem Verhalten oder andere Schutzmechanismen, die direkt auf menschliches Handeln reagieren. Doch diese Logik beginnt sich zu verschieben.

Vor wenigen Wochen machte der Microsoft-Copilot-Vorfall deutlich, dass nicht mehr der Benutzer im Mittelpunkt steht, sondern der im Hintergrund arbeitende KI-Assistent – sogar bevor eine E-Mail geöffnet wird. Dadurch ändert sich das Ziel von Angriffen grundlegend.

Wir bewegen uns zunehmend in eine Welt, in der digitale Assistenten wie Copilot eigenständig agieren, E-Mails analysieren, Informationen zusammenfassen oder Entscheidungen vorbereiten. Und genau diese Systeme geraten jetzt in den Fokus. Angreifer müssen nicht mehr auf den Klick des Nutzers warten, sondern versuchen, direkt mit dem KI-System zu interagieren, meist ohne dass der Mensch es überhaupt merkt.

Das hat tiefgreifende Folgen. Kommunikation findet künftig immer häufiger von System zu System statt, Assistant zu Assistant, KI zu KI. Das erhöht nicht nur das Volumen möglicher Angriffe, sondern stellt auch die etablierten Sicherheitsmechanismen vor völlig neue Herausforderungen.

Aus heutiger Sicht bewegen wir uns damit in weitgehendem Neuland. Teilweise lassen sich diese Risiken über API-Sicherheit oder Absicherung von Webanwendungen adressieren, aber das reicht bei weitem nicht aus. Die klassische Schutzlogik – Anwender, Endgerät, Oberfläche – greift hier nicht mehr.

Wir müssen uns darauf einstellen, dass ein zunehmender Teil der Angriffsfläche nicht mehr sichtbar oder direkt beeinflussbar ist – und dafür Schutzmechanismen entwickeln, die nicht nur den Menschen, sondern auch seine digitalen Stellvertreter sichern.

Wann kippt der Assistenzcharakter von künstlicher Intelligenz in Richtung vollständiger Autonomie? 

Ich denke, im Kern haben wir es hier mit einem fundamentalen Kontrollproblem zu tun, eines, das sich in vielen Bereichen wiederfindet. Wer etwa schon einmal mit der Übersetzung technischer Produktunterlagen in Fremdsprachen zu tun hatte, kennt die Herausforderung: Ist die Übersetzung korrekt? Das kann man nur beurteilen, wenn man die Sprache selbst beherrscht. Könnte man das, bräuchte man keine Übersetzungshilfe.

Ähnlich gelagert ist die Situation mit KI, insbesondere in komplexen, hochspezialisierten Bereichen wie der medizinischen Befundung. KI kann theoretisch alles lernen, was verfügbar ist: strukturierte Daten, wissenschaftliche Publikationen, Fallbeispiele, diagnostische Muster. Das macht sie auf lange Sicht in solchen Anwendungsfeldern wahrscheinlich unverzichtbar.

Doch genau hier stellt sich die entscheidende Frage: Wann ist der Mensch nur noch formal Teil des Entscheidungsprozesses ohne wirklich in der Lage zu sein, die Beurteilung der KI nachzuvollziehen? Wenn etwa eine Diagnose auf Grundlage hochkomplexer Korrelationen gestellt wird, für die der Mensch schlicht nicht die Datenbasis oder Zeit hat, um sie nachzuvollziehen, dann wird das Gegenprüfen zur Illusion.

Man könnte sagen: Irgendwann bleibt der Mensch nur noch als Placebo in der Entscheidungsarchitektur – zur Beruhigung, aber nicht mehr zur Kontrolle. So weit sind wir noch nicht, vor allem nicht im Bereich IT-Security. Dort bleibt KI derzeit vor allem ein Assistenzsystem, ein sehr mächtiges, aber eben nicht autonom handelndes.

Dennoch nähern wir uns einem Punkt, an dem Entscheidungen zunehmend automatisiert getroffen werden mit allen damit verbundenen Risiken, etwa bei einer versehentlichen Fehlklassifikation oder im Fall von gezieltem Model Poisoning. Ich glaube nicht, dass wir hier noch Jahrzehnte Zeit haben. Es ist eher eine Frage weniger Jahre, bis wir beginnen müssen, unsere Kontrollmechanismen grundsätzlich neu zu denken.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Was macht die aktuelle Generation generativer KI tatsächlich neu? Und warum verändert insbesondere die sprachbasierte Interaktion grundlegend, wie wir künftig mit Technologie umgehen?

Was aus meiner Sicht den echten Umbruch markiert, ist nicht einfach die Verbesserung von Algorithmen oder die Verfügbarkeit größerer Datenmengen, sondern der Einzug des Sprachprozessors als zentrales Element. Diese Komponente hat generativer KI eine neue Dimension eröffnet.

Denn was bislang auf reine Mustererkennung beschränkt war – etwa im Rahmen klassischer Machine-Learning-Anwendungen –, wird nun durch das Verständnis und die Verarbeitung von Sprache enorm erweitert. Die KI ist heute nicht nur in der Lage, Muster zu identifizieren, sondern kann Informationen in natürlicher Sprache interpretieren, daraus Handlungsanweisungen ableiten und diese wiederum an andere Systeme weitergeben.

Das macht den Zugang für den Menschen radikal einfacher. Sprache wird zur neuen Schnittstelle und damit zur Basis einer Interaktion, die weit über klassische Benutzeroberflächen hinausgeht. Genau deshalb wird intern auch bei uns immer wieder diskutiert, was das für die Zukunft der User Experience bedeutet. Ich vertrete hier eine klare Position: In fünf Jahren wird der Bedarf an klassischen UX-Experten und -Expertinnen deutlich zurückgehen, wenn nicht ganz verschwinden. Denn die Interaktion mit Systemen wird sprachgesteuert ablaufen, individuell, dynamisch, situationsbezogen.

Was wir heute als grafische Oberfläche verstehen, wird sich auf eine reine Visualisierung reduzieren. Die eigentliche Steuerung übernimmt die KI nicht nur durch Vorschläge, sondern durch direkte Umsetzung. Sie analysiert, gibt Hinweise, empfiehlt Alternativen und setzt auf Wunsch um.

Das ist der fundamentale Unterschied zu früheren KI-Generationen: Die Fähigkeit, Sprache zu verstehen, daraus strukturierte Aktionen abzuleiten und diese mit zunehmender Tiefe durchzuführen – und das in einem Ausmaß, das vor wenigen Jahren noch nicht vorstellbar war.

Wir sprechen nicht mehr nur über Mustererkennung, sondern über Systemsteuerung durch Sprache mit konkreten Ergebnissen, die Prozesse, Rollen und ganze Berufsbilder verändern werden.

Wie hoch ist der praktische Nutzen etablierter Mustererkennung im Sicherheitsalltag einzuschätzen?

Ein klassisches Beispiel dafür, wie leistungsfähig etablierte KI-Verfahren bereits heute sind, ist das sogenannte „Impossible Travel“-Erkennen. Gerade im Umfeld von Managed SOCs ist das ein Standardmechanismus.

Hierbei geht es darum, Login- oder Zugriffsevents zu identifizieren, die innerhalb eines unrealistisch kurzen Zeitfensters von geografisch weit entfernten Orten stammen. Also etwa ein Login aus Wien und 15 Minuten später ein zweiter aus Singapur. Solche Ereignisse lassen sich mit herkömmlichen Verkehrsmitteln nicht plausibel erklären. Der Nutzer hätte sich quasi mit Überlichtgeschwindigkeit bewegen müssen.

Um solche Anomalien zuverlässig zu erkennen, braucht es kein generatives Sprachmodell. Es braucht eine robuste Mustererkennung, die große Mengen an Daten aus verschiedenen Quellen korrelieren und auf Regelbrüche analysieren kann. Diese Verfahren gehören längst zum Standardrepertoire im Bereich IT-Sicherheit. Aie sind so etabliert, dass sie oft als selbstverständlich wahrgenommen werden.

Und genau das ist der Punkt: Diese Hauskeeping-Technologien laufen im Hintergrund, zuverlässig, effektiv und sind essenziell für die tägliche Sicherheitsarbeit. Sie gehen im aktuellen Hype um generative KI häufig unter, obwohl sie nach wie vor einen entscheidenden Beitrag zur Abwehr leisten.

Gerade deshalb sollten wir bei all den neuen Möglichkeiten nicht vergessen, wie viel Wert bereits in den bestehenden, datenbasierten Erkennungsmechanismen steckt und wie wichtig es ist, diese weiterzuentwickeln und zu pflegen.

Wenn KI-Systeme eigenständig handeln, stellt sich zwangsläufig die Frage: Wer trägt im Schadensfall die Verantwortung – der Nutzer, der Entwickler? Wie geht das Rechtssystem mit dieser Grauzone um?

Um diese Frage sinnvoll einordnen zu können, muss man einen Schritt zurückgehen und den rechtlichen Rahmen betrachten, der hinter technischen Entwicklungen steht. Denn genau hier entsteht eine grundlegende Spannung: Technisch ist heute vieles möglich,  aber die zentrale Frage bleibt: Wer haftet, wenn etwas schiefläuft? 

Ein gutes Beispiel ist der medizinische Bereich. Dort kann eine KI bei der Befundung unterstützen, aber die Verantwortung trägt am Ende immer der Arzt oder die Ärztin. Er oder sie gibt den Befund frei und haftet im Zweifel auch dafür. Die KI selbst kann nicht haftbar gemacht werden, sie ist juristisch gesehen kein verantwortlicher Akteur. Und das ist der eigentliche Kern des Problems.

Überträgt man dieses Prinzip auf andere Bereiche – etwa die Nutzung eines KI-Bots, der eigenständig Aufgaben ausführt – wird es schnell kritisch. Was passiert, wenn dieser Bot infiltriert oder manipuliert wird und Handlungen ausführt, die weder gewollt noch autorisiert waren? Wer haftet, wenn dadurch Schaden entsteht: der Betreiber des Bots, der Anbieter des KI-Modells oder der Endnutzer?

Diese Fragen sind derzeit noch weitgehend ungeklärt, sowohl rechtlich als auch regulatorisch. Und genau das wird in Zukunft ein zentrales Thema sein. Denn je mehr Entscheidungen und Handlungen an autonome Systeme delegiert werden, desto dringlicher wird es, die Verantwortlichkeiten klar zu definieren. Andernfalls entsteht eine gefährliche Grauzone, in der niemand mehr wirklich zur Rechenschaft gezogen werden kann.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Wie unterstützt künstliche Intelligenz in der Praxis moderne SOC-Teams? 

Die Unterstützung durch künstliche Intelligenz ist auch bei uns ein zentraler Bestandteil, insbesondere im Managed SOC-Bereich. Wir bieten im Fall von sicherheitskritischen Events ein Service Level von 20 Minuten. Das bedeutet, dass innerhalb dieses Zeitfensters die Incident Response eingeleitet werden muss. Das ist kein theoretischer Zielwert, sondern eine tatsächliche, belastbare Zusage an unsere Kunden.

Solch ein Zeitrahmen ist ohne KI-Unterstützung nicht realistisch. Ein Analyst allein könnte in dieser Zeitspanne niemals die notwendigen Daten sichten, korrelieren, bewerten und eine fundierte Entscheidung treffen, geschweige denn sofort Maßnahmen wie Quarantäne oder Systemabschaltung einleiten. Die Analyse muss also bereits im Vorfeld weitgehend KI-gestützt ablaufen: Relevante Datenpunkte werden zusammengeführt, bewertet, Berichte und externe Indikatoren inhaltlich zusammengefasst und auf den Punkt gebracht – alles automatisiert, damit dem Analysten eine solide Entscheidungsgrundlage in möglichst kurzer Zeit zur Verfügung steht.

Trotz dieser Automatisierung bleibt die Verantwortung beim Menschen. Aber die KI übernimmt das Zeitkritische, das Vorauswerten, das Filtern und schafft damit Raum für den Analysten, um unter Stress dennoch eine fundierte Entscheidung treffen zu können. Ohne diesen Vorsprung durch KI würde das Zeitfenster von 20 Minuten kaum einzuhalten sein. Und das wird in Zukunft vermutlich noch anspruchsvoller werden.

Ein zweiter, oft unterschätzter Aspekt, bei dem KI bei uns zum Einsatz kommt, betrifft die Kommunikation mit Kunden insbesondere in weniger dringlichen Fällen. Denn nicht alle Vorfälle sind akut, aber die Wahrnehmung der Kunden ist sehr unterschiedlich. Manche sind gelassen, andere reagieren schnell nervös, selbst wenn objektiv kein gravierender Vorfall vorliegt.

Auch hier nutzen wir KI, konkret im Bereich der Sentiment-Analyse. Die Systeme analysieren eingehende E-Mails oder Telefongespräche, bewerten Tonalität, Sprache und Kontext, und geben dem Analysten Hinweise, wie dringlich ein Anliegen wahrgenommen wird. So kann die Bearbeitung besser priorisiert werden, indem etwa besonders besorgte Kunden schneller eine Rückmeldung erhalten, auch wenn der technische Vorfall nicht kritisch ist.

Das klingt zunächst nach Feinjustierung, ist in der Praxis aber extrem hilfreich. Denn gerade in sicherheitskritischen Kontexten geht es nicht nur um technische Reaktionszeiten, sondern auch um Vertrauen, Kommunikationsgeschwindigkeit und Kundenwahrnehmung. KI hilft uns hier, gezielter und individueller zu reagieren, nicht nur bei der Incident Response selbst, sondern auch in der Qualität der Zusammenarbeit.

Wie realistisch ist der breite Einsatz von Quantencomputing in absehbarer Zeit?

Als jemand mit akademischem Hintergrund in der theoretischen Quantenphysik – speziell im Bereich Quanteninformation – sehe ich das Thema Quantencomputing deutlich differenzierter als viele andere. 

Natürlich gibt es beeindruckende Fortschritte in der Forschung, und das Potenzial ist unbestritten. Aber wenn man sich die technologischen Hürden ansieht, die heute noch bestehen, würde ich klar sagen: Der große Durchbruch ist keineswegs unmittelbar zu erwarten.

Es erinnert stark an ein anderes bekanntes Thema aus der Physik: die Kernfusion. Als ich noch an der Universität war, hieß es bereits, in 20 Jahren sei sie einsatzbereit. Heute, Jahrzehnte später, ist der Zeitrahmen auf 30 Jahre gewachsen.

Wird es in Zukunft eine vollständig autonome IT-Security geben? Ist das technisch überhaupt realistisch oder rechtlich und ethisch überhaupt wünschenswert?

Die Vorstellung einer vollständig autonomen Security wirft eine Reihe technischer, rechtlicher und auch gesellschaftlicher Fragen auf. Grundsätzlich ist es denkbar, dass einzelne Teilbereiche hochautomatisiert ablaufen, insbesondere dort, wo die Auswirkungen kontrollierbar sind und der Schaden begrenzt bleibt. In solchen Szenarien kann eine Maschine Entscheidungen treffen, etwa bei der Quarantäne eines Endgeräts oder der Sperrung eines Benutzerzugangs, sofern das Risiko kalkulierbar ist.

Aber sobald die Auswirkungen in den unternehmenskritischen Bereich hineinreichen, insbesondere bei Eingriffen in Produktionsprozesse, bei kritischer Infrastruktur oder bei Entscheidungen, die einen realen wirtschaftlichen oder gar physischen Schaden verursachen könnten, stößt die Idee einer vollkommen autonomen Sicherheitsarchitektur an klare Grenzen.

Ein entscheidender Punkt ist hier das Haftungsprinzip, wie es in unseren Rechtssystemen verankert ist. Am Ende muss immer eine natürliche Person die Verantwortung übernehmen können. Und diese Verantwortung wird sich nicht einfach an ein KI-System delegieren lassen, zumindest nicht in einem regulierten Umfeld wie dem europäischen.

Deshalb ist es zwar vorstellbar, dass bestimmte Routineaufgaben zunehmend automatisiert ablaufen. Das passiert ja bereits heute in vielen Unternehmen. Doch gerade in sensiblen Umgebungen, etwa in der Industrie oder im Energiesektor, ist der Handlungsspielraum deutlich eingeschränkt. Dort können Gegenmaßnahmen wie das Abschalten von Systemen massive Folgewirkungen haben bis hin zum Stillstand ganzer Betriebe. Solange solche Nebenwirkungen nicht mit absoluter Sicherheit ausgeschlossen werden können, wird man den letzten Entscheidungsschritt immer einem Menschen überlassen.

Das bedeutet nicht, dass die Entwicklung in Richtung mehr Automatisierung nicht sinnvoll wäre, ganz im Gegenteil. Aber sie wird selektiv bleiben: Routineentscheidungen, klare Muster, definierte Schwellenwerte – das sind Einsatzfelder, in denen autonome Systeme gut funktionieren. Für alle darüber hinausgehenden Maßnahmen gilt auch künftig: Entscheidung ja, aber mit menschlicher Verantwortung.

Welche Risiken entstehen, wenn Unternehmen keine klaren Richtlinien definieren?

Eines der sensibelsten Themen im Zusammenhang mit künstlicher Intelligenz ist der Datenschutz, insbesondere der unbeabsichtigte Abfluss von Informationen. Wenn wir als Hersteller KI einsetzen, dann steht für uns immer im Vordergrund, dass Kundendaten strikt getrennt bleiben. Der Verdacht, dass durch unsaubere Implementierung Daten vermischt oder gar weitergegeben werden könnten, darf gar nicht erst aufkommen. Die Trennung von Daten ist für uns eine Grundvoraussetzung, nicht nur technisch, sondern auch aus vertrauens- und haftungsrechtlicher Sicht.

Doch genau hier liegt ein Punkt, den viele Anwender – vor allem jene, die KI-Tools ohne tiefere Kenntnisse oder strukturelle Vorgaben nutzen – derzeit unterschätzen. Oft ist gar nicht klar, welche Daten überhaupt verarbeitet werden, wo sie gespeichert sind und was mit ihnen geschieht. Die Realität ist: Wer ein KI-Tool nutzt, das keine klaren Zusicherungen zum Datenschutz gibt, insbesondere im Hinblick auf Datenlokation und Datenverwertung, läuft Gefahr, unternehmensinterne oder sogar sensible Daten ungewollt offenzulegen. Und das betrifft insbesondere Tools, die außerhalb Europas betrieben werden und nicht dem europäischen Datenschutz unterliegen.

Deshalb braucht es in Unternehmen ganz klare Richtlinien: Welche Daten dürfen in KI-Systeme eingegeben werden? Welche Systeme sind überhaupt freigegeben? Und vor allem welche nicht? Es reicht nicht, den Mitarbeitenden einfach Zugang zu generativen Tools zu gewähren und auf Eigenverantwortung zu hoffen. Ohne klare Regeln kann schnell ein erhebliches Risiko entstehen, sei es für den Datenschutz, die Informationssicherheit oder das geistige Eigentum des Unternehmens.

Am Ende geht es nicht nur um Technologie, sondern um Vertrauen. Das entsteht nur, wenn Unternehmen proaktiv und bewusst mit dem Thema umgehen.

Wie kann ein Unternehmen den sicheren Einsatz von KI gewährleisten, ohne dabei die Akzeptanz und den praktischen Nutzen im Arbeitsalltag zu gefährden?

Wir haben das Thema frühzeitig adressiert und intern eine Lösung geschaffen, mit der wir die Nutzung von KI-Modellen – insbesondere von LLMs – klar kontrollieren und absichern können. Über ein internes Interface haben wir eine Art Gateway etabliert, das als Schutzschicht zwischen dem Nutzer und dem eigentlichen Modell fungiert. Wer auf das System zugreifen will, benötigt einen individuellen Zugangsschlüssel. Auf diese Weise stellen wir sicher, dass keine Daten nach außen gelangen.

Natürlich bringt das einen gewissen Aufwand mit sich – vor allem im Vergleich zur bequemen Nutzung öffentlich zugänglicher Dienste wie ChatGPT oder browserintegrierter Tools. Aber dieser administrative Overhead ist aus unserer Sicht gerechtfertigt. Es ist eine Maßnahme zur digitalen Hygiene, die sich langfristig auszahlt, weil sie das Risiko von ungewolltem Datenabfluss signifikant reduziert.

Spannend wird es beim Thema Akzeptanz. Der Umgang mit KI ist stark vom persönlichen Zugang zur Technologie abhängig. Während technikaffine Mitarbeitende schnell bereit sind, neue Tools auszuprobieren, gibt es eine große Mehrheit, die sich eher zurückhält oder KI sogar ablehnend gegenübersteht. Das stellt Unternehmen vor eine doppelte Herausforderung: einerseits Sicherheit und Kontrolle zu gewährleisten, andererseits aber auch die richtige Balance zu finden, um produktive Nutzung zu ermöglichen und Ängste abzubauen.

Die Lösung liegt nicht nur in der Technologie selbst, sondern auch in gezielter Schulung, klarer Kommunikation und dem Aufzeigen konkreter Anwendungsbeispiele, die echten Mehrwert bringen, ohne dass dabei Sicherheitsstandards aufgeweicht werden.

Wie geht man im Unternehmen mit der Herausforderung um, dass viele Mitarbeitende KI skeptisch gegenüberstehen – sei es aus Unsicherheit oder aus Angst um den eigenen Arbeitsplatz?

Die technischen Herausforderungen wie Datenschutz, Data Loss Prevention und Zugriffskontrolle sind essenziell. Aber das allein reicht nicht. Was oft untergeht, ist genau dieser andere, sehr menschliche Aspekt: Wie bringt man eigentlich die Leute dazu, KI im Alltag zu nutzen, wenn sie davor zurückschrecken?

Und das ist kein Randthema. Viele Mitarbeitende haben ganz reale Sorgen, was KI für ihre Arbeit bedeutet. Es ist oft nicht die Angst vor der Technik an sich, sondern vor dem Verlust der Relevanz, der Kontrolle oder sogar des Jobs. Gerade wenn man in Bereichen arbeitet, in denen Automatisierung direkt sichtbar wird, sei es durch Code-Generierung, Dokumentationsautomatisierung oder einfache Routineaufgaben, dann sind diese Ängste verständlich.

Unser Ansatz ist deshalb ganz klar: Wir zwingen niemanden zur Nutzung von KI, sondern setzen auf Anreize und gezielte Unterstützung. Wo es sinnvoll ist, fördern wir die Nutzung aktiv, aber immer mit einem klaren Zielbild: Die KI soll unterstützen, nicht ersetzen. Und das ist auch die Realität, in der wir uns bewegen. Denn wenn man ehrlich ist, gerade in der Cybersecurity, wir sind alle massiv unterbesetzt. Es fehlt an qualifizierten Leuten, und genau da kann KI helfen, Kapazitäten zu schaffen – nicht Jobs zu vernichten.

Was wir konkret machen, ist zum Beispiel, die KI nicht als erste Instanz zu positionieren, sondern als zweite Meinung, als Qualitätssicherung. Wenn ein Entwickler Code schreibt, dann bleibt er der Hauptverantwortliche. Aber im Code Review kann die KI unterstützen, Schwachstellen aufzeigen, Optimierungen vorschlagen, ohne dabei die Kontrolle aus der Hand zu nehmen. So wird die KI ein Sparringspartner, kein Ersatz.

Das verändert auch die Haltung. Denn dann sehen die Leute: Die KI macht meine Arbeit nicht überflüssig, sie macht sie besser. Und ich behalte den Überblick. So schaffen wir Akzeptanz, nicht durch Druck, sondern durch sinnvolle Integration, durch Nutzen, der spürbar ist.

KI ist auch ein Kulturthema. Es betrifft die Frage, wie ich mit Veränderungen umgehe, und dafür braucht es Kommunikation, Schulung, Begleitung. Und eben den offenen Umgang mit den Sorgen, die da sind. Nur so holt man die Leute wirklich ab.

Was ist Ihr abschließender Rat im Umgang mit KI, gerade im Spannungsfeld zwischen Sicherheit, Innovation und Datenschutz?

Bleiben Sie wachsam. Denn KI betrifft längst nicht nur Unternehmen, sondern uns alle persönlich. Das heißt auch: Jeder Einzelne sollte sich mit dem Thema auseinandersetzen, ruhig mal damit experimentieren, aber nicht naiv, sondern mit einem gesunden Maß an Skepsis und Verantwortungsbewusstsein. Denn KI ist zu wichtig, um die Auseinandersetzung damit einfach an die IT oder andere Fachabteilungen zu delegieren. Wir alle werden in irgendeiner Form damit konfrontiert sein. Und es ist wichtig, ein eigenes Gefühl dafür zu entwickeln, wie diese Technologie funktioniert und was sie für unseren Alltag bedeutet.

Wir leben in der EU, das bringt viele Vorteile mit sich, gerade beim Thema Datenschutz. Aber es schränkt uns auch ein, vor allem im Bereich Sicherheits- und Schutztechnologien. Denn vieles, was technisch möglich und vielleicht sogar notwendig wäre, zum Beispiel im Bereich Imposition Prevention, Location Tracking oder biometrischer Videoanalysen zur Identitätsverifikation, scheitert oft an Datenschutzbestimmungen.

Da wird es langfristig eine gesellschaftliche Debatte brauchen: Wie viel Schutz will ich, und wie viel Privacy bin ich bereit dafür aufzugeben? Denn je nachdem, was ich priorisiere – Schutz oder Privatsphäre – wird das eine oder andere in der Waagschale eben schwerer wiegen.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*