Maschinelles Lernen gegen Cyberbedrohungen: KI optimiert forensische Analyseverfahren

In der sich ständig weiterentwickelnden Cybersicherheitslandschaft hat künstliche Intelligenz (KI) auch die forensische Analyse revolutioniert. Bei der Nutzung von KI-Tools sollte man allerdings die Vorteile und Herausforderungen gleichermaßen verstehen. IT WELT.at hat darüber mit Jörn Koch von der VIPRE Security Group ein Interview geführt. [...]

Jörn Koch ist als Senior Channel Development Manager für den Aufbau des indirekten Vertriebs von Vipre Security in der DACH-Region zuständig. (c) Vipre Security
Jörn Koch ist als Senior Channel Development Manager für den Aufbau des indirekten Vertriebs von Vipre Security in der DACH-Region zuständig. (c) Vipre Security

Welche Rolle spielt künstliche Intelligenz (KI) in der forensischen Analyse im Bereich der Cybersicherheit und wie hat sie traditionelle Ermittlungsmethoden verbessert?

Künstliche Intelligenz und dabei insbesondere Modelle, die auf maschinellem Lernen basieren, spielen seit vielen Jahren bei Cybersicherheitsanalysen und Forensik eine Rolle. In den letzten fünf, sechs Jahren bestand einer der Hauptunterschiede zwischen traditionellen, signaturbasierten Antivirenprogrammen und den sogenannten Next-Generation-Antivirenlösungen in der Verwendung von KI beim Erkennen und Analysieren von Malware. Ähnliches gilt für den Bereich der forensischen Analyse von Malware-Samples. Hier wurde KI von führenden Sandbox-Anbietern eingesetzt, um eine potenzielle Malware zu bewerten und zu analysieren.

KI spielt bei der forensischen Analyse in der Regel so etwas wie eine beratende Rolle. Etwa, indem sie Signale identifiziert, die wahrscheinlich auf eine bösartige Datei oder ein bösartiges Verhalten hindeuten. Diese Fähigkeit von KI trägt dazu bei, eine Malware schneller als bisher zu erkennen, die Suche danach zu erleichtern und Zero-Day-Bedrohungen zu erkennen, die bei herkömmlichen signaturbasierten Technologien möglicherweise „durchrutschen“. Gleichzeitig besteht immer die Möglichkeit, dass eine KI falsch-positive Ergebnisse liefert. Die Ergebnisse dahingehend zu überprüfen und auszufiltern kostet Zeit und Energie. Hier braucht es eine sorgfältige Abstimmung.

In jüngster Zeit sind generative KI-Modelle rasant gewachsen. Sie gestatten es, künstliche Intelligenz auf Bereiche auszuweiten, die über die Analyse spezifischer Endpunkte oder potenzieller Malware hinausgehen. Dazu zählen Funktionen wie die Identifizierung und Automatisierung gängiger Arbeitsabläufe bei der Vorfallsreaktion, die Unterstützung von forensischen Untersuchungen im Stil freier Fragen und Antworten und Unterstützung bei automatisierten Abhilfemaßnahmen.

Inwiefern unterstützen KI-gestützte Tools die rasche Identifizierung und Reaktion auf Bedrohungen in Echtzeit, und warum ist dies in der heutigen Bedrohungslandschaft so wichtig?

In den meisten Fällen werden KI-basierende Lösungen eingesetzt, um bisher unbekannte bösartige Dateien und Aktivitäten, auch bekannt als Zero-Days, zu erkennen und zu beobachten. Die Modelle sind zumeist auf einzelne Dateien oder Verhaltensprotokolle ausgerichtet, und die KI kann dann die Datei/das Protokoll mit bereits bekannten bösartigen Inhalten vergleichen. So ist es möglich, neue Malware-Stämme zu erkennen, ohne sich dabei auf Signaturen verlassen zu müssen. Rein KI-basierte Lösungen neigen jedoch dazu, ungenau zu werden und zu verrauschen (also ein hohes Maß an „false positives“ oder „false negatives“ zu produzieren). Vor allem, wenn sie nicht sorgfältig abgestimmt sind. Daher verwendet man Signaturen oft in Kombination mit – was eine umfassendere und genauere Erkennung und Analyse verspricht.

Könnten Sie die Rolle von KI bei der Erkennung von Mustern und Verhaltensanalyse näher erläutern und wie sie dabei hilft, Abweichungen und Anomalien in den Daten zu identifizieren?

Bei der Erkennung von Mustern und der Verhaltensanalyse werden üblicherweise „Machine Learning“-Modelle eingesetzt, im Gegensatz zu generativer KI und anderen Spielarten von KI. Der grundsätzliche Ansatz besteht darin, das Modell anhand großer Mengen zuvor gesichteter, bösartiger Dateien/Aktivitäten und einer ähnlichen Menge von bekannten, gutartigen Dateien/Aktivitäten zu trainieren. So „lernt“ das Modell, wie es zukünftig auftretende bösartige Muster erkennen kann. Aber längst nicht alle ML-Modelle sind gleich, und sie müssen sorgfältig trainiert und abgestimmt werden, wenn man falsch-positive oder fehlerhafte Ergebnisse vermeiden will. Taugliche KI-Modelle setzen voraus, dass ein Unternehmen Zugang zu einer sehr hohen Zahl an Trainingsdaten hat und mit erfahrenen ML-Designern arbeitet. Beides zusammen gewährleistet erst Wirksamkeit und Genauigkeit.

Welche Herausforderungen ergeben sich aus dem Auftreten von falsch positiven und falsch negativen Ergebnissen in KI-gestützten Systemen und wie könnten diese in der Praxis bewältigt werden?

Falsch-negative Ergebnisse sind natürlich ein Problem. Werden Bedrohungen übersehen, kann das die Zielumgebung gefährden. Falschmeldungen sind aber auch noch aus einem anderen Grund problematisch: Jede erkannte potenzielle Bedrohung bindet Ressourcen innerhalb der IT-Sicherheit. Entpuppt sich die Bedrohung als nicht real, sind bereits kritische und knappe Ressourcen für etwas verschwendet worden, das überhaupt nicht hätte „aufgedeckt“ werden sollen. Darüber hinaus führen Fehlalarme nicht selten zu Produktivitätsverlusten, weil Mitarbeitende nicht auf die Anwendung oder das System zugreifen können, mit dem sie arbeiten wollten.

KI-Systeme sollten sorgfältig abgestimmt werden, mit gut konzipierten Modellen, riesigen Mengen an Trainingsdaten und einer zusätzlichen Optimierung seitens der Teams, die die Modelle trainieren. Dies ist kein Szenario, bei dem man einem Modell irgendwelche Daten hinwirft, und es wird schon die richtigen Schlüsse daraus ziehen. Ein Beispiel für solche KI-basierten Fehler ist ein Modell, das gelernt hat, einen Wolf von einem Hund anhand des verschneiten Hintergrunds zu unterscheiden…

Warum ist die Einbindung menschlicher Expertise trotz der Effizienzsteigerung durch KI bei der Cybersicherheit nach wie vor unverzichtbar?

Im Grunde sind sämtliche Detection-Techniken, einschließlich von KI, im Wesentlichen statistische Modelle. Und die sind anfällig für falsch positive und negative Ergebnisse – auch wenn sich die Modelle so justieren lassen, dass die Rate recht niedrig bleibt. Es ist aber mathematisch nachweisbar, dass keine automatisierte Erkennungstechnik hundertprozentige Genauigkeit erreicht. Ohne menschliches Eingreifen geht es nicht. Hinzu kommt die Tatsache, dass KI, zumindest in ihrer aktuellen Form, keine Absicht erkennen kann. Ein Beispiel dafür ist die grundlegende Antiviren-Praxis bei der Erkennung von „potenziell unerwünschten Programmen“ (PUPs) – typischerweise Überwachungssoftware.

Diese Programme werden sowohl rechtmäßig von Unternehmen und Institutionen eingesetzt, die Diebstahl, Betrug und Datenschutzverletzungen verhindern wollen, aber auch von Angreifern auf eine eindeutig nicht legitime Weise. Oft muss der Mensch entscheiden, ob die jeweilige Organisation dieses Überwachungssystem haben will, ob es sich um eine normale Systemadministration handelt oder um einen Angreifer, ob ein Benutzer beschlossen hat, seine eigenen privaten Daten durch starke Verschlüsselung zu schützen, oder ob eine Ransomware die Kontrolle übernommen hat.

Welche ethischen Überlegungen müssen bei der Implementierung von KI in der Cybersicherheit berücksichtigt werden, insbesondere in Bezug auf Datenschutz und Transparenz?

In letzter Zeit wurden hinsichtlich von KI eine Reihe von ethischen Bedenken geäußert und diskutiert, und das aus gutem Grund. Eine Studie nach der anderen hat gezeigt, dass sich in KI-Modelle fast zwangsläufig Verzerrungen einschleichen, die sich besonders auf Minderheiten auswirken, und beispielsweise die Kreditwürdigkeit in Frage stellen. Im Bereich der Cybersicherheit gibt es Vorbehalte, was den Zugriff auf private Daten und deren Verarbeitung anbelangt. Daten, die die KI braucht, um den Kontext und das „normale“ Verhalten zu ermitteln und dementsprechend ein abweichendes, abnormales Verhalten zu erkennen. In gewissem Sinne vergleichbar den Bedenken gegenüber einem menschlichen IT-Sicherheitsbeauftragten, der auf ganz ähnliche Arten von Informationen zugreift. Auch die Überlegungen sind dieselben – wie wird auf diese Daten zugegriffen, wie werden sie übertragen, gespeichert, weitergegeben? Die Tatsache, dass eine KI auf die Daten zugreift, sollte kein Grund sein, den Umgang mit diesen Daten lockerer oder nachlässiger zu betrachten.

Wie könnten KI-gestützte Systeme gegen Angriffe und Manipulationen geschützt werden, um ihre Integrität zu gewährleisten?

Die größte Sorge bei Angriffen auf KI-Systeme besteht darin, dass die KI ausgetrickst oder verwirrt werden kann und in der Folge falsche Ergebnisse liefert. Das kann man beispielsweise erreichen, indem man widersprüchliche oder ungültige Eingaben macht. Man kann eine KI auch langsam daran gewöhnen, indem man ihr Muster zeigt, die fast, aber nicht ganz den Schwellenwert einer „Bedrohung“ erreichen. Kommt es dann zu einer echten Bedrohung, reagiert die KI weniger sensibel.

Noch einmal, auch diese Techniken unterscheiden sich nicht grundlegend von solchen, die gegenüber menschlichen Akteuren eingesetzt werden. Auch wenn das im Moment viel leichter zu bewerkstelligen ist. Mechanismen, mit denen man Angriffe gegen eine KI verhindern kann, sind derzeit in der Entwicklung. Gerade vor diesem Hintergrund betrachtet ist es wichtig, KI-Modelle sorgfältig auszuarbeiten, abzustimmen und sicherzustellen, dass die Eingaben validiert wurden und nicht verfälscht werden können. Zudem sollte man ein Modell auswählen, dass sich am besten für das jeweilige Anforderungsprofil eignet. Maschinelles Lernen eignet sich besser für die Erkennung von Mustern und die Verhaltensanalyse, während generative KI sich für eine freie Untersuchung eignet, bei der nur der IT-Sicherheitsbeauftragte die Eingaben macht.

Welche Herausforderungen könnten bei der Implementierung fortschrittlicher KI-Systeme in Unternehmen auftreten, insbesondere in Bezug auf Ressourcen und Skalierbarkeit?

Wir gehen eher nicht davon aus, dass Unternehmen KI-Cybersecurity-Systeme direkt selbst implementieren. Das erledigen die meisten Anbieter bereits für ihre Kunden. Die kommen allerdings nicht umhin, die optimale Lösung zu finden, mit einer ordnungsgemäß implementierten KI-Unterstützung, den entsprechenden Ressourcen und in der richtigen Preis-Range. KI liefert nicht voraussetzungslos gute Ergebnisse. Aber viele potenzielle Käufer scheinen KI immer noch magische Kräfte zuzusprechen. Firmen sollten sich schon allein deshalb weniger auf kühne Marketingaussagen verlassen als vielmehr auf solide, wiederholbare, statistische Ergebnisse von unabhängigen Testorganisationen achten, die tatsächlich realistische Szenarien implementieren (z. B. AV Comparatives).

Warum ist die Erklärbarkeit von KI-Entscheidungen in der Cybersicherheit so wichtig, und wie könnten transparentere Modelle entwickelt werden?

Hier kommen wir wieder auf unsere Diskussion über implizite Verzerrungen und unsachgemäßes Training zurück, die bei einem KI-Modell zu falschen Ergebnissen führen können. Ich hatte bereits das Modell erwähnt, das gelernt hat, Hunde von Wölfen anhand der Schneemenge im Hintergrund zu unterscheiden. Die gleiche Art von impliziter Voreingenommenheit kann die meisten KI-Modelle in der einen oder anderen Form beeinflussen. Daher sollten unsere KI-Modelle explizit ausgeben: „Oh, dieses Tier sieht wegen seiner spitzen Ohren und Zähne aus wie ein Wolf“ statt „Oh, das sieht wie ein Wolf aus, denn Wölfe stehen normalerweise im Schnee herum“. Nur dann kann man bewerten, wie effektiv ein Modell tatsächlich ist. Wenn sich unsere Annahmen ändern oder der Kontext, oder aber KI-Modelle nicht richtig trainiert und abgestimmt sind, könnten sie sehr ungenau werden.

Könnten Sie die Rolle der Endpoint Security bei der Bedrohungsabwehr näher erläutern und wie KI-gestützte Lösungen hier einen Unterschied machen könnten?

In vielerlei Hinsicht ist Endpoint Security die letzte Verteidigungslinie gegen Bedrohungen. Aber selbst wenn Ihre E-Mails gefiltert und Links so umgeschrieben werden, dass sie gescannt werden, wenn Sie daraufklicken, nachdem Anhänge extrahiert und in einer KI-gesteuerten Sandbox zur Ausführung gebracht wurden, nachdem Sie rigoros darauf trainiert wurden, NICHT auf Inhalte zu klicken oder sie zu öffnen – selbst, wenn sie alle diese Hürden gemeistert haben – schaffen es immer noch Bedrohungen, diesen Schutzwall zu überwinden. Das Konzept der mehrschichtigen Sicherheit basiert genau auf der Annahme, dass keine Schicht für sich allein perfekt ist. Wir sollten sogar davon ausgehen, dass eine, zwei oder sogar mehrere Schichten versagen können – und daher ist es entscheidend, sich auf mehrere Sicherheitsschichten verlassen zu können. Diese letzte Schicht ist die Endpoint Security. Die meisten Anbieter haben inzwischen KI-basierte Erkennungstechniken implementiert, und viele leisten gute Arbeit selbst bei der Erkennung von Zero-Day-Bedrohungen. Einige tun das sogar, ohne eine Vielzahl von Fehlalarmen zu erzeugen.

Seit Kurzem bieten EDR-Tools noch sehr viel mehr Kontext zu potenziellen Bedrohungen. Man kann sie besser erkennen und analysieren, und man kann zuverlässiger unterscheiden, wo es sich um Fehlalarme handelt und wo man reagieren muss. Diese Analysen kosten allerdings Zeit und verschlingen ohnehin knappe Expertenressourcen. Deshalb werden neue KI-basierte Lösungen entwickelt, mit deren Hilfe Firmen schneller auf Vorfälle reagieren können und die genauere Untersuchungsergebnisse liefern. Das ersetzt an dieser Stelle keinen Experten. Aber es erlaubt ihnen, sich auf die intelligente Analyse zu konzentrieren, während die KI dabei hilft, ein vollständiges Bild mit Kontext zu erstellen.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*