Künstliche Intelligenz verbessert IT-Security

Die Fortschritte auf dem Gebiet der künstlichen Intelligenz helfen der IT-Security und machen sie flexibler im Umgang mit wechselnden Bedrohungen. [...]

Die Themen künstliche Intelligenz und Machine Learning sind derzeit in aller Munde. Die Aufregung und Begeisterung um die neuen Technologien ist dabei durchaus gerechtfertigt. Allerdings werden die Labels „Machine Learning“ oder „KI“ inzwischen ziemlich leichtfertig vergeben – scheinbar braucht es dazu nur noch die Existenz eines wie auch immer gearteten Rechners. Ähnliches haben wir ja schon in Bezug auf den Begriff „Cloud“ erlebt, der irgendwann zum Synonym für alles wurde, was online passiert. „Der Hype tobt“, meint auch Anand Rao, Analyst bei PwC: „Die Leute reden davon, wie superintelligent KI-Lösungen werden und wie sie die gesamte Menschheit und menschliche Entscheidungsfindung nach und nach ersetzen werden.“
Deep Learning: Zukunft der IT-Sicherheit?
Doch wie kann künstliche Intelligenz der IT-Sicherheit dienlich sein? Eine alltägliche Aufgabe der IT-Security ist die Einstufung neu heruntergeladener Applikationen: Sind sie vertrauenswürdig oder beinhalten sie Schadcode? Der traditionelle Ansatz bislang: signaturbasierte Systeme. Der größte Nachteil dieser Antivirus-Standardverfahren besteht darin, dass permanente Datenbank-Updates durchgeführt werden müssen, weil ständig neue Malware geschrieben wird. Das ganze Konstrukt ist dennoch ziemlich morsch, schließlich muss eine Malware nur minimale Modifikationen aufweisen, um durch das Raster zu fallen und die Schutzmaßnahmen zu umgehen.
Das Security-Start-Up Deep Instinct versucht dieses Problem mit Deep-Learning-Techniken zu lösen. Dabei will sich das Unternehmen zu Nutze machen, dass inzwischen fast eine Million Malware-Samples für Versuchszwecke zur Verfügung stehen. Vom Erfolg des Deep-Learning-Ansatzes ist CTO Eli David überzeugt: „Deep Learning hat viele Branchen revolutioniert. Die Leistungsfähigkeit der Computer haben sich jährlich um etwa 20 bis 30 Prozent verbessert – inzwischen kann man davon sprechen, dass sie übermenschliche Fähigkeiten besitzen. Ein Beispiel: Spracherkennung, beziehungsweise Sprachsteuerung. Und warum sollte das nicht auch im Bereich IT-Sicherheit funktionieren?“
Die Entwicklungsstufen künstlicher Intelligenz
In der Entwicklung von KI-Systemen12 unterscheidet man drei verschiedene Ansätze. Um die Funktionsweisen dieser Entwicklungsmodelle zu verdeutlichen, gehen wir davon aus, dass unser fiktives KI-System eine Gruppe von Tieren nach Katzen und Hunden klassifizieren soll: Stufe 1 ist das Expertensystem, das weiß, dass eine Katz 30 Zähne und ein Hund 42 Zähne besitzt. Stufe 2 ist ein wahrscheinlichkeitsbasiertes System, das aufgrund verschiedener Faktoren wie eben Anzahl der Zähne oder Gewicht mit 70prozentiger Wahrscheinlichkeit sagen kann, ob das Tier eine Katze oder ein Hund ist. Stufe 3 ist das Deep-Learning-System, das auf der Grundlage von Millionen klassifizierter Beispiele gelernt hat, selbstständig zwischen Katzen und Hunden zu unterscheiden.
Bereits ein wahrscheinlichkeitsbasiertes Machine-Learning-System stoße schnell an seine Grenzen, meint David. Schließlich gebe es nur eine begrenzte Anzahl an Faktoren, die von Experten gewichtet und anschließend für die Erzielung optimaler Ergebnisse verwendet werden können. Auf der anderen Seite würden unzählige Faktoren als nicht wichtig genug oder irrelevant außer Acht gelassen: „Der Großteil der Daten wird quasi ungenutzt entsorgt.“
KI-Systeme in der Security-Praxis
Deep Instinct verfolgt deshalb einen anderen Ansatz: Deren Deep-Learning-System wird im Labor trainiert – mit allen bekannten Malware-Samples. Dieser Prozess dauert laut Eli David ungefähr einen Tag – und erfordert den Einsatz von Profi-GPUs, um diese Daten analysieren zu können. Das daraus entstandene, fertige KI-System ist ungefähr ein Gigabyte groß – was für die meisten Applikationen zu groß ist. Deswegen komprimiert man das Ganze noch bis auf 20 Megabytes herunter – so kann das System schließlich auf jedem beliebigen Endpunkt-Device (auch Smartphones) installiert werden und eingehende Bedrohungen analysieren.
Das soll selbst mit einem lahmen Rechner in wenigen Millisekunden geschehen sein, so David: „Ein File mit einer durchschnittlichen Größe von einem Megabyte ist in weniger als einer Millisekunde durch. Wir machen all die komplexen Dinge, die eine wirklich ausgereifte Infrastruktur erfordern, in unserem Labor. Was unsere Kunden bekommen, ist im Grunde ein kleines Gehirn – die Quintessenz unserer Arbeit. Dabei bemerken sie die Komplexität die dahinter steht gar nicht.“
Neue Malware-Samples werden übrigens fortlaufend zur Sammlung von Deep Instinct hinzugefügt. Alle drei bis vier Monate bekommen dann alle „Gehirne“, die im Einsatz sind, ein Update spendiert. Klingt unsicher? „Sogar wenn für sechs Monate kein Update kommt, ist das System in der Lage, neue Files zu erkennen. Die Deep-Learning-Methode ist bestens dazu geeignet, selbst kleinste Veränderungen und Mutationen zu erkennen. Sogar Zero-Day-Exploits von Profi-Hackern oder Geheimdiensten basieren zu 80 Prozent auf bereits bekannten Bedrohungen. Traditionelle Abwehrmaßnahmen können dagegen nichts ausrichten. Mit Deep Learning ist das kein Problem.“
Um die Ergebnisse quantifizieren zu können, arbeitet Deep Instinct nach eigenen Angaben mit unabhängigen Testlaboren zusammen. In einer frühen Testphase mit einigen Großunternehmen, so David, konnte die Malware-Detektionsrate – im Vergleich zu bestehenden Lösungen – um 20 bis 30 Prozent gesteigert werden: „Wir haben erst kürzlich im Rahmen eines Tests 100.000 Files bei einer großen Bank in den USA untersucht. Deren bestehende Lösung wurde am Morgen des Tests geupdatet – bei unserem Produkt war das circa zwei Monate her. Bei unserer Lösung lag die Erkennungsrate bei 99,9 Prozent, bei der bestehenden Lösung bei 40 Prozent.“
KI-Lösung
Ein negativer Aspekt bei den aktuellen Deep-Learning-Systemen ist jedoch, dass sie zwar eine Lösung finden, aber nicht unbedingt über den Lösungsweg aufklären können. Dieser Aufgabe hat sich Eureqa verschrieben – eine proprietäre KI-Engine von Nutonian. Laut Michael Schmidt, Gründer und CTO des Unternehmens, ist Eureqa etwa in der Lage, aus Physik-Daten die Newtonschen Gesetze abzuleiten: „Die Engine findet die einfachste und zugleich eleganteste Erklärung für das, was passiert und welche Beziehungen bestehen.“
Nutonian hat seine KI-Engine vor einiger Zeit der Forschung zur Verfügung gestellt und das Framework war bereits in etlichen Studien sehr hilfreich – etwa im Healthcare-Bereich, wo mit Eureqa neue Modelle und Methoden zur Diagnose von Krankheiten – zum Beispiel Augenleiden oder Blinddarmentzündungen – entwickelt werden konnten. Natürlich gibt es aber auch Applikationen für den Bereich IT-Sicherheit, wie Michael Schmidt sagt: „Eines der ausgeprägtesten Probleme ist, die Anatomie eines Hackerangriffs aufzudecken. Eureqa kann diesen Prozess über eine Anwendung automatisiert abwickeln. Wir konnten damit in Minuten Ergebnisse erzielen, die sonst Monate oder Jahre gebraucht hätten.“
Künstliche Intelligenz vs. Hacker
Geht es um IT-Security, sind regelmäßige Updates für jede Art von Machine-Learning- oder KI-System unabdingbar, denn die Bedrohungslage befindet sich in einem steten Wandel: Mitarbeiter entdecken neue Tools, Provider verändern ihre Applikationen, Kunden ihr Shopping-Verhalten und Hacker entwerfen neue Malware, die speziell darauf ausgelegt ist bestehende Sicherheitsmaßnahmen zu umgehen. Und bis das nächste Update kommt, besteht jedes Mal ein Zeitfenster erhöhter Verwundbarkeit.
Zudem können Hacker und Cyberkriminelle auch jederzeit Security Software kaufen, um nach dem „Trial and Error“-Prinzip neue Angriffsmethoden zu entwickeln. „Die können sie dann bei sämtlichen Kunden des Anbieters anwenden, bis das nächste Update kommt“, warnt Mike Stute, Chef-Researcher beim Managed-Networking-Provider Masergy Communications. Laut Stute besteht ein Weg zur Lösung dieses Dilemmas darin, von sogenannten „One size fits all“-Sicherheitslösungen Abstand zu nehmen.
Genau diesen Weg verfolgt man bei Masergy: Anhand einer bestimmten Anzahl von globalen Faktoren analysiert deren Lösung mit Hilfe künstlicher Intelligenz die Wahrscheinlichkeit eines ungewöhnlichen Verhaltens und gleicht das anschließend mit individuellen, lokalen Faktoren ab, wie Stute erklärt. „Ein globales System kann nur eine begrenzte Zahl von Inputs betrachten, der Speicherplatz ist begrenzt. Durch die zusätzliche Betrachtung lokaler Besonderheiten können noch viel mehr Inputs betrachtet werden, weil im lokalen Modell keine Kompression vorgenommen werden muss.“ Das sorgt wiederum dafür, so der Experte, dass die Ergebnisse wesentlich akkurater sind.
System lernt beim Kunden
Auf die Kombination globaler und lokaler Variablen setzt man auch bei Acuity Solutions: Deren BluVector-Appliance setzt bei der Erkennung von Cyber-Risiken ebenfalls auf Machine Learning. Das System – das auf einem Analyse-Programm für US-Regierungsbehörden aufsetzt – lernt zunächst, wie gutartiger Code aussieht, wie Acuity-CEO Kris Lovejoy erklärt: „Unsere Engine kann erkennen, wenn bestimmte Features, die normalerweise in gutartigem Code zu finden sein müssten, fehlen.“ Natürlich sei die Acuity-Engine darüber hinaus auch in der Lage, von Kunden individuell zu lernen: „Unsere Engine kommt vorkonfiguriert zu den Kunden. Ab diesem Zeitpunkt ist es dann fast so, als würde ein Kind das Nest verlassen – und dann in der Umgebung des Kunden wächst und gedeiht.“
Die Engine wird alle vier Monate mit globalen Datensätzen aktualisiert – die spezifischen, lokalen Daten der einzelnen Kunden würden aber nicht über das System hinweg geteilt. Deswegen ist keine Version des Produkts wie die andere und quasi individuell auf die Kunden zugeschnitten. Selbst wenn ein Hacker also ebenfalls über die Engine verfügt und eine Sicherheitslücke findet, nützt ihm das nichts, wie Lovejoy verdeutlicht: „Hierbei handelt es sich quasi um eine bewegliche Verteidigungsmaßnahme, die unmöglich zu rekonstruieren ist, weil sie an ihre jeweilige Umgebung angepasst sind.“
* Maria Korolov schreibt für die amerikanische IDG-Publikation CSO.

Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*