KI-Bias: Wie Verzerrungseffekte sich auf die Cybersicherheit auswirken

Künstliche Intelligenz spielt schon seit geraumer Zeit eine wichtige Rolle, um Cyberbedrohungen zu erkennen und zu bekämpfen. Seit vielen Jahren nutzen Sicherheitsexperten maschinelles Lernen dazu, Attacken in Echtzeit zu identifizieren, zu analysieren und abzuwehren. [...]

Usman Choudhary, Chief Product & Technology Officer, VIPRE Security Group (c) VIPRE Security Group
Usman Choudhary, Chief Product & Technology Officer, VIPRE Security Group (c) VIPRE Security Group

Dabei kommen ausgefeilte Algorithmen zum Einsatz, die auf riesigen Datensätzen bekannter Bedrohungen und Verhaltensmuster trainiert wurden. KI-basierte Systeme sind so in der Lage, zwischen als normal definierten Netzwerkaktivitäten und eher atypischen zu unterscheiden.

Das funktioniert für eine breite Palette von Cyberbedrohungen. Dazu zählen ausgeklügelte Ransomware-Angriffe ebenso wie gezielte Phishing-Kampagnen und sogar nuancierte Insider-Bedrohungen. Dank heuristischer Modellierung und der Fähigkeit, spezielle Muster zu erkennen, können KI-gestützte Cybersicherheitslösungen verdächtige Aktivitäten sehr effektiv als solche identifizieren. Unternehmen werden rechtzeitig gewarnt, einschließlich von Hinweisen, die sie schnell umsetzen können – die Grundlage für ein proaktives Risikomanagement. 

Falsch-positive und falsch-negative Ergebnisse

Ein großes Risiko liegt allerdings in falschen oder verzerrten Ergebnissen. Die sogenannte „KI-Bias“ tritt auf, wenn ein Algorithmus als Folge fehlerhafter Annahmen im ML-Prozess systematisch verzerrte Ergebnisse liefert. Das stellt Sicherheitsteams vor große Probleme. Sind die Daten ungenau oder inkonsistent oder auch das Design insgesamt, produzieren die Algorithmen verzerrte und voreingenommene Resultate. Sie zeigen sich beispielsweise in geschlechtsspezifischen, rassistischen oder sozioökonomischen Vorurteilen. 

Das kann verschiedene Ursachen haben. Oft liegt es an selektiv ausgewählten Trainingsdaten. Fehler entstehen aber auch, wenn Eingabedaten beim überwachten Lernen falsch etikettiert werden. Wenn man von absichtlich herbeigeführten Fehlern absieht, kann mangelndes Urteilsvermögen ein Grund sein, ebenso wie eine parteiische Vorannahme eines Entwicklers. Selbst nicht-überwachtes Lernen produziert Ergebnisse, die frei erfunden sein können. Beispielsweise, wenn eine KI Zusammenhänge herstellt, wo keine sind. 

Als Teil einer Cybersicherheitslösung kann KI-Bias etwa zu übermäßig vielen False Positives führen. Eine voreingenommene KI würde dann harmlose Aktivitäten als Bedrohung einstufen. Dadurch werden nicht nur unnötig viele Ressourcen verbraucht, es führt auch zur sattsam bekannten Alert Fatigue. Umgekehrt kann es dazu kommen, dass KI-Lösungen neu auftretende Bedrohungen übersehen, weil diese von den vorprogrammierten Mustern abweichen. 

Darüber hinaus erzeugen auch fehlerhaft entwickelte, schlecht trainierte KI-Systeme diskriminierende Ergebnisse. Diese zielen unverhältnismäßig und ungerechtfertigt auf bestimmte demografische Merkmale oder Verhaltensmuster von Benutzern ab, so dass die Sicherheitsmaßnahmen auf systematischen Verzerrungen beruhen. 

Ebenso können KI-Systeme False Negatives produzieren. Etwa indem sie sich übermäßig stark auf bestimmte Arten von Bedrohungen konzentrieren und dadurch tatsächliche Sicherheitsrisiken nicht erkennen. Das kann dazu führen, dass ein KI-System den Netzwerkverkehr falsch klassifiziert oder unschuldige Benutzer fälschlicherweise als potenzielles Sicherheitsrisiko für ein Unternehmen einstuft.

KI-Bias bei Cybersicherheitssystemen verhindern

Unternehmen können einiges tun, um systematischen Verzerrungen von KI-basierten Cybersicherheitssystemen entgegenzuwirken.

Stellen Sie sicher, dass Ihre KI-Lösungen auf unterschiedlichen Datensätzen trainiert werden.

Das Training der KI-Modelle mit verschiedenen Datensätzen sollte eine Vielzahl von Bedrohungsszenarien, Benutzerverhalten und Angriffsmustern aus unterschiedlichen Regionen und Branchen erfassen. Dann ist gewährleistet, dass ein KI-System so aufgebaut ist, dass es unterschiedlichste Bedrohungen präzise erkennt und angemessen darauf reagiert.

Transparenz und Erklärbarkeit sollten zentraler Bestandteil der KI-Strategie sein.

Die verwendeten Datenmodelle sollten transparent und leicht verständlich sein. Dies gibt Aufschluss darüber, wie die Daten verwendet werden und wie das KI-System auf der Basis der zugrunde liegenden Entscheidungsprozesse funktionieren wird. Man spricht bei diesem Ansatz von „explainable AI“, also einer erklärbaren KI. Damit ist gemeint, dass dieser Ansatz Belege und Einsichten dazu liefert, auf welche Art und Weise die KI ihre Entscheidungen trifft und welche potenziellen Auswirkungen das hat. So verstehen Unternehmen besser, wie es zu einer bestimmten Sicherheitswarnung gekommen ist und welche möglichen Ursachen dafür verantwortlich sind. 

Nur unter menschlicher Aufsicht…

KI ist ganz hervorragend geeignet, Muster zu erkennen und Daten in immenser Geschwindigkeit zu verarbeiten. Trotzdem ist die menschliche Expertise nach wie vor eine entscheidende Voraussetzung, um sowohl komplexe Sicherheitsbedrohungen zu interpretieren als auch die Verzerrungen innerhalb der Datenmodelle zu minimieren. Das heißt, Sicherheitsexperten sollten die Grenzen des KI-Systems überwachen und verstehen. Nur dann kann man rechtzeitig Korrekturmaßnahmen ergreifen und Fehler und Verzerrungen während des Betriebs beseitigen. 

Nicht ohne Grund ist die Notwendigkeit menschlicher Aufsicht auch regulatorisch festgeschrieben – als eine zentrale Anforderung des EU-KI-Gesetzes. Um sie zu erfüllen, sollten Cybersicherheitsteams einen „Human-in-the-Loop“-Ansatz in Betracht ziehen.: Cybersicherheitsexperten überwachen KI-generierte Warnmeldungen und stellen kontextsensitive Analysen bereit.

Diese Art der Zusammenarbeit zwischen Mensch und Technik sorgt dafür, dass Fehler aufgrund von Verzerrungen so weit wie möglich ausgemerzt werden und die endgültigen Entscheidungen korrekt und zuverlässig sind.

Trainieren und vergessen? Nicht bei KI-Modellen

Die Modelle sollten kontinuierlich trainiert und mit neuen Daten gefüttert werden. Andernfalls kann das betreffende KI-System nicht mit der sich weiterentwickelnden Bedrohungslandschaft Schritt halten. Feedbackschleifen sollten nahtlos in das KI-System integriert sein. Sie dienen dazu, Ungenauigkeiten und Anomalien umgehend melden zu können. Das trägt dazu bei, die Lösung dauerhaft zu verbessern.

Vorurteile und Ethik gehen Hand in Hand

Vorurteile zu verstehen und zu überwinden ist bei der Nutzung von KI ein grundlegender ethischer Imperativ, nicht nur im Bereich der Cybersicherheit. Die ethische Entwicklung von KI braucht einen proaktiven Ansatz, um die jeweilige Quelle von Vorurteilen zu finden. Entscheidend ist dabei, die Verzerrungen und Vorurteile transparent zu machen. Sei es innerhalb der Trainingsdaten, der Modellarchitektur oder sogar in der Zusammensetzung der jeweiligen Entwicklungsteams.

Nur so kann KI ihr Versprechen einlösen, ein leistungsstarkes Werkzeug beim Schutz vor Bedrohungen zu sein. Andernfalls ist der Einsatz KI-basierter Systeme eher kontraproduktiv und kann (vermeidbaren) Schaden im Unternehmen anrichten. Dann wäre der Einsatz von KI nicht nur nutzlos, sondern sogar leichtsinnig. 

*Der Autor Usman Choudhary ist Chief Product & Technology Officer der VIPRE Security Group.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*