Cybersicherheit im Zeitalter von KI gegen KI

Vor 25 Jahren war in Cybersicherheitskreisen nicht viel von künstlicher Intelligenz (KI) die Rede. Gespräche über IT-Sicherheit begannen damals fast unweigerlich mit der Prämisse "Wenn jemand dies oder jenes tut". Die Betonung liegt auf "jemand". Es gab immer einen "Jemand". Einen Hacker. Einen Menschen. [...]

Terry Ray, CTO Imperva (c) Imperva
Terry Ray, CTO Imperva (c) Imperva

Heute wird die Mehrheit des Netzwerkverkehrs nicht mehr von Menschen erzeugt, sondern von Maschinen. Es gibt nicht mehr unbedingt einen „Jemand“ – zumindest nicht direkt.

Noch besorgniserregender wird diese Tatsache in der aktuellen Bedrohungslandschaft, in der Advanced Persistent Threats (APTs) auf dem Vormarsch sind. Die Hacker von einst – menschliche Hacker – verhielten sich in der Regel wie Einbrecher. Sie verschafften sich Zugang, schnappten sich alles, was sie finden konnten, und versuchten sich dann aus dem Staub zu machen, bevor jemand sie auch nur bemerkt hatte. Die heutigen Angreifer gehen raffinierter vor. Sie suchen nach einer Schwachstelle in einem Netzwerk, dringen ein und bleiben, so lange sie nur können – oft monate- oder gar jahrelang. Dabei haben moderne Angreifer eine Reihe von Assen im Ärmel, um die Zeit bis zu ihrer Entdeckung zu verlängern. Zum Beispiel nutzen sie Deep Learning, um die Trainingsdaten der Security zu manipulieren – und erreichen damit, dass die Machine-Learning-Algorithmen des Abwehrsystems eine falsche Vorstellung vom normalen Verhalten gewinnen.

Die gute Nachricht ist, dass die Cybersicherheitsexperten mittlerweile sehr wohl über KI-Technologien reden – und sie einsetzen. Nicht nur die Übeltäter haben ihre Fähigkeiten in puncto Automatisierung und maschinelles Lernen ausgebaut, sondern auch die Verteidiger. Mithilfe moderner maschineller Lernmethoden für Cybersicherheit lassen sich nicht nur ungewöhnliche Bot-Aktivitäten erkennen, sondern es kann auch festgestellt werden, um welche Art von Bot es sich handelt und was seine grundlegende Funktion ist. Diese Erkenntnisse geben Aufschluss darüber, worauf der Bot wahrscheinlich aus ist.
Die schlechte Nachricht ist allerdings, dass all diese Datenanalysen selbst wiederum Unmengen von Daten erzeugen und damit die IT-Abteilungen in Unternehmen überfordern.

KI-Wettrüsten in drei Dimensionen

KI-Technologien wie Automatisierung und maschinelles Lernen sind grundlegend auf Daten angewiesen. Deshalb werden sie von den folgenden drei Dimensionen von Daten beeinflusst:

  • Volume (Menge – Wie viele Daten sind vorhanden?)
  • Velocity (Geschwindigkeit – Wie schnell werden die Daten erzeugt, gesammelt und analysiert?)
  • Variety (Vielfalt – Mit welcher Art von Daten haben wir es zu tun? Wie sehr bzw. wie wenig ähneln die einzelnen Datenpunkte einander?)

Bei Datenwissenschaftlern sind diese Merkmale zusammengenommen als die drei V’s bekannt – und jedes V trägt zu den Problemen bei, die das KI-gegen-KI-Wettrüsten in der Cybersicherheit verursacht. Man denke nur an die Milliarden von Website-Besuchen, die jeden Monat im Internet stattfinden. Menschliche IT-Mitarbeiter können manuell nur einen kleinen Teil der tausenden und abertausenden von Alarmen untersuchen, die tagtäglich auf ihren Bildschirmen erscheinen mögen – ausgelöst entweder durch einen Bot oder einen Menschen mit jeweils eigenen Motiven. Mit anderen Worten: Die Menge, Geschwindigkeit und Vielfalt der Daten, mit denen IT-Abteilungen fertig werden müssen, sind unermesslich groß. Angesichts dessen überrascht es wenig, dass eine kürzlich durchgeführte Studie ergab, dass über ein Drittel der Unternehmen 50 Prozent ihrer Sicherheitsalarme oder mehr schlicht und einfach ignorieren.

In diesem Zusammenhang ist es interessant zu vergleichen, wie die andere Seite vorgeht. Spammer und Scammer nutzen schon seit Jahren maschinelles Lernen, um automatisierte Filter zu umgehen – und steigern die Erfolgschancen ihrer Online-Missetaten mithilfe automatisierter Methoden (die in manchen Fällen sorgsam orchestriert werden, um dem Ganzen einen menschlich-realistischen Anstrich zu verleihen). Die richtige automatisierte E-Mail oder E-Mail-Serie kann es ermöglichen, eine betrügerische Finanzaktion durchzuführen, mit Erfolg Malware einzuschleusen oder an sensible Daten zu gelangen. Böswillige Netzwerkangreifer wiederum verfügen über ihre eigenen automatisierten Bots, um sich die Schwerarbeit abnehmen zu lassen – und in manchen Fällen werden diese Bots selbst durch maschinelles Lernen unterstützt, sodass im Netzwerk KI gegen KI steht.
In diesem Fall haben die Übeltäter allerdings von vornherein einen Vorteil: Sie brauchen nur einen einzigen erfolgreichen Angriff, um zu „gewinnen“. Ein IT-Team dagegen muss jede Schlacht gewinnen. Deshalb ist Skalierbarkeit für die Verteidiger der Cybersicherheit noch wichtiger als für die Angreifer. Und bis echte KI an den Start kommt, ist die Bekämpfung von Automatisierung durch Automatisierung für die IT schlichtweg nicht machbar. Es ist ein Wettrüsten, welches sie nicht gewinnen kann.

KI mit Maß

Aus diesem Grunde sollten zunächst die Bots verbannt werden. Alle – mit Ausnahme einiger explizit bekannter und vertrauenswürdiger APIs, die auf eine Whitelist gesetzt werden.
Denn was sind für Cybersicherheitsspezialisten die wahren Ziele? Sie bauen Festungen, sie verteidigen und sie schützen. Für den Fall, dass etwas schiefläuft, minimieren sie den Schaden. Nicht mehr und nicht weniger. Die verschiedenen Arten von automatisiertem Netzwerkverkehr zu identifizieren hilft zwar, diese Ziele zu erreichen, ist dabei aber nicht das Wesentliche.

Angesichts der aktuellen Bedrohungslandschaft sollte die allerwichtigste Frage bei der Analyse des Webanwendungsverkehrs im Netzwerk lauten: Wird er von Menschen erzeugt?
Wenn er weder von Menschen erzeugt wird noch von einem Bot, der bereits als bekannt und vertrauenswürdig auf die Whitelist gesetzt wurde, dann hat er im Netzwerk nichts verloren.
Dabei ist es völlig unerheblich, ob ein Bot versucht, Konzertkarten zu kaufen, Metadaten auszulesen oder ein Skript einzuschleusen. In diesem Fall muss man nicht erst abwarten, welche Aktivität der Bot im Sinn haben könnte. Er muss einfach nur als nicht vertrauenswürdiger Bot identifiziert werden – und ihm muss der Zugang verwehrt werden.
Dies wird den Webanwendungsverkehr, der in das Netzwerk eingeht, mit einem Schlag um mehr als ein Drittel reduzieren.

Wenn nur Menschen (und eine Handvoll weißgelisteter Bots) im Netzwerk agieren, dann werden die defensiven Automatisierungs- und Machine-Learning-Maßnahmen wesentlich wirkungsvoller sein. Sicherheitsalarme und andere Resultate werden in einer Menge und Geschwindigkeit eingehen, die Menschen effektiv bewältigen können. Ohne all die Aktivitäten nicht genehmigter Bots im Netzwerk werden diese Datensätze zudem per se mehr Kontext enthalten – und das wird den Faktor Vielfalt minimieren.

Das Ergebnis: die zuständige IT-Abteilung wird mit wesentlich weniger Sicherheitsalarmen zu kämpfen haben – und wahrscheinlich mehr Alarmen Beachtung schenken können. Ein zusätzlicher Bonus ist, dass diese Reduktion der Dimensionalität zu mehr – und einfacheren – Datensätzen führen wird, sodass sich die Machine-Learning-Fähigkeiten des Netzwerks verbessern können.

Davon ausgehend, können wir irgendwann tatsächlich bereit sein für KI gegen KI. Noch sind wir es allerdings nicht. Zunächst muss die Abwehr aufgestockt werden.

*Terry Ray ist CTO von Imperva.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*