Künstliche Intelligenz spielt schon seit geraumer Zeit eine wichtige Rolle, um Cyberbedrohungen zu erkennen und zu bekämpfen. Seit vielen Jahren nutzen Sicherheitsexperten maschinelles Lernen dazu, Attacken in Echtzeit zu identifizieren, zu analysieren und abzuwehren. [...]
Dabei kommen ausgefeilte Algorithmen zum Einsatz, die auf riesigen Datensätzen bekannter Bedrohungen und Verhaltensmuster trainiert wurden. KI-basierte Systeme sind so in der Lage, zwischen als normal definierten Netzwerkaktivitäten und eher atypischen zu unterscheiden.
Das funktioniert für eine breite Palette von Cyberbedrohungen. Dazu zählen ausgeklügelte Ransomware-Angriffe ebenso wie gezielte Phishing-Kampagnen und sogar nuancierte Insider-Bedrohungen. Dank heuristischer Modellierung und der Fähigkeit, spezielle Muster zu erkennen, können KI-gestützte Cybersicherheitslösungen verdächtige Aktivitäten sehr effektiv als solche identifizieren. Unternehmen werden rechtzeitig gewarnt, einschließlich von Hinweisen, die sie schnell umsetzen können – die Grundlage für ein proaktives Risikomanagement.
Falsch-positive und falsch-negative Ergebnisse
Ein großes Risiko liegt allerdings in falschen oder verzerrten Ergebnissen. Die sogenannte „KI-Bias“ tritt auf, wenn ein Algorithmus als Folge fehlerhafter Annahmen im ML-Prozess systematisch verzerrte Ergebnisse liefert. Das stellt Sicherheitsteams vor große Probleme. Sind die Daten ungenau oder inkonsistent oder auch das Design insgesamt, produzieren die Algorithmen verzerrte und voreingenommene Resultate. Sie zeigen sich beispielsweise in geschlechtsspezifischen, rassistischen oder sozioökonomischen Vorurteilen.
Das kann verschiedene Ursachen haben. Oft liegt es an selektiv ausgewählten Trainingsdaten. Fehler entstehen aber auch, wenn Eingabedaten beim überwachten Lernen falsch etikettiert werden. Wenn man von absichtlich herbeigeführten Fehlern absieht, kann mangelndes Urteilsvermögen ein Grund sein, ebenso wie eine parteiische Vorannahme eines Entwicklers. Selbst nicht-überwachtes Lernen produziert Ergebnisse, die frei erfunden sein können. Beispielsweise, wenn eine KI Zusammenhänge herstellt, wo keine sind.
Als Teil einer Cybersicherheitslösung kann KI-Bias etwa zu übermäßig vielen False Positives führen. Eine voreingenommene KI würde dann harmlose Aktivitäten als Bedrohung einstufen. Dadurch werden nicht nur unnötig viele Ressourcen verbraucht, es führt auch zur sattsam bekannten Alert Fatigue. Umgekehrt kann es dazu kommen, dass KI-Lösungen neu auftretende Bedrohungen übersehen, weil diese von den vorprogrammierten Mustern abweichen.
Darüber hinaus erzeugen auch fehlerhaft entwickelte, schlecht trainierte KI-Systeme diskriminierende Ergebnisse. Diese zielen unverhältnismäßig und ungerechtfertigt auf bestimmte demografische Merkmale oder Verhaltensmuster von Benutzern ab, so dass die Sicherheitsmaßnahmen auf systematischen Verzerrungen beruhen.
Ebenso können KI-Systeme False Negatives produzieren. Etwa indem sie sich übermäßig stark auf bestimmte Arten von Bedrohungen konzentrieren und dadurch tatsächliche Sicherheitsrisiken nicht erkennen. Das kann dazu führen, dass ein KI-System den Netzwerkverkehr falsch klassifiziert oder unschuldige Benutzer fälschlicherweise als potenzielles Sicherheitsrisiko für ein Unternehmen einstuft.
KI-Bias bei Cybersicherheitssystemen verhindern
Unternehmen können einiges tun, um systematischen Verzerrungen von KI-basierten Cybersicherheitssystemen entgegenzuwirken.
Stellen Sie sicher, dass Ihre KI-Lösungen auf unterschiedlichen Datensätzen trainiert werden.
Das Training der KI-Modelle mit verschiedenen Datensätzen sollte eine Vielzahl von Bedrohungsszenarien, Benutzerverhalten und Angriffsmustern aus unterschiedlichen Regionen und Branchen erfassen. Dann ist gewährleistet, dass ein KI-System so aufgebaut ist, dass es unterschiedlichste Bedrohungen präzise erkennt und angemessen darauf reagiert.
Transparenz und Erklärbarkeit sollten zentraler Bestandteil der KI-Strategie sein.
Die verwendeten Datenmodelle sollten transparent und leicht verständlich sein. Dies gibt Aufschluss darüber, wie die Daten verwendet werden und wie das KI-System auf der Basis der zugrunde liegenden Entscheidungsprozesse funktionieren wird. Man spricht bei diesem Ansatz von „explainable AI“, also einer erklärbaren KI. Damit ist gemeint, dass dieser Ansatz Belege und Einsichten dazu liefert, auf welche Art und Weise die KI ihre Entscheidungen trifft und welche potenziellen Auswirkungen das hat. So verstehen Unternehmen besser, wie es zu einer bestimmten Sicherheitswarnung gekommen ist und welche möglichen Ursachen dafür verantwortlich sind.
Nur unter menschlicher Aufsicht…
KI ist ganz hervorragend geeignet, Muster zu erkennen und Daten in immenser Geschwindigkeit zu verarbeiten. Trotzdem ist die menschliche Expertise nach wie vor eine entscheidende Voraussetzung, um sowohl komplexe Sicherheitsbedrohungen zu interpretieren als auch die Verzerrungen innerhalb der Datenmodelle zu minimieren. Das heißt, Sicherheitsexperten sollten die Grenzen des KI-Systems überwachen und verstehen. Nur dann kann man rechtzeitig Korrekturmaßnahmen ergreifen und Fehler und Verzerrungen während des Betriebs beseitigen.
Nicht ohne Grund ist die Notwendigkeit menschlicher Aufsicht auch regulatorisch festgeschrieben – als eine zentrale Anforderung des EU-KI-Gesetzes. Um sie zu erfüllen, sollten Cybersicherheitsteams einen „Human-in-the-Loop“-Ansatz in Betracht ziehen.: Cybersicherheitsexperten überwachen KI-generierte Warnmeldungen und stellen kontextsensitive Analysen bereit.
Diese Art der Zusammenarbeit zwischen Mensch und Technik sorgt dafür, dass Fehler aufgrund von Verzerrungen so weit wie möglich ausgemerzt werden und die endgültigen Entscheidungen korrekt und zuverlässig sind.
Trainieren und vergessen? Nicht bei KI-Modellen
Die Modelle sollten kontinuierlich trainiert und mit neuen Daten gefüttert werden. Andernfalls kann das betreffende KI-System nicht mit der sich weiterentwickelnden Bedrohungslandschaft Schritt halten. Feedbackschleifen sollten nahtlos in das KI-System integriert sein. Sie dienen dazu, Ungenauigkeiten und Anomalien umgehend melden zu können. Das trägt dazu bei, die Lösung dauerhaft zu verbessern.
Vorurteile und Ethik gehen Hand in Hand
Vorurteile zu verstehen und zu überwinden ist bei der Nutzung von KI ein grundlegender ethischer Imperativ, nicht nur im Bereich der Cybersicherheit. Die ethische Entwicklung von KI braucht einen proaktiven Ansatz, um die jeweilige Quelle von Vorurteilen zu finden. Entscheidend ist dabei, die Verzerrungen und Vorurteile transparent zu machen. Sei es innerhalb der Trainingsdaten, der Modellarchitektur oder sogar in der Zusammensetzung der jeweiligen Entwicklungsteams.
Nur so kann KI ihr Versprechen einlösen, ein leistungsstarkes Werkzeug beim Schutz vor Bedrohungen zu sein. Andernfalls ist der Einsatz KI-basierter Systeme eher kontraproduktiv und kann (vermeidbaren) Schaden im Unternehmen anrichten. Dann wäre der Einsatz von KI nicht nur nutzlos, sondern sogar leichtsinnig.
*Der Autor Usman Choudhary ist Chief Product & Technology Officer der VIPRE Security Group.

Be the first to comment