Künstliche Intelligenz in der Cybersicherheit – ein kritischer Blick

Warum eine einzige Größe nicht für alle passt – und warum der Mensch im Mittelpunkt eines guten Sicherheitsbetriebs stehen sollte. Vectra antwortet auf diese Fragen. [...]

Wie sollen wir die Wirtschaft und, allgemeiner gesagt, die Gesellschaft in einer Welt organisieren, in der große Teile der menschlichen Arbeit zu verschwinden beginnen? (c) phonlamaiphoto - Fotolia
Wie sollen wir die Wirtschaft und, allgemeiner gesagt, die Gesellschaft in einer Welt organisieren, in der große Teile der menschlichen Arbeit zu verschwinden beginnen? (c) phonlamaiphoto - Fotolia

Das rasante Tempo, mit dem sich die künstliche Intelligenz (KI) in den letzten Jahren entwickelt hat, hat begonnen, in den verschiedensten Bereichen transformative Effekte zu erzielen. In einer zunehmend vernetzten Welt, in der Cyberangriffe in alarmierender Häufigkeit und Größenordnung auftreten, ist es kein Wunder, dass sich die Cybersicherheit nun auf KI und maschinelles Lernen (ML) konzentriert, um Angreifer zu erkennen und abzuwehren. Der Einsatz von KI in der Cybersicherheit erweitert nicht nur den Anwendungsbereich dessen, was ein einzelner Sicherheitsexperte überwachen kann, sondern ermöglicht vor allem auch die Entdeckung von Angriffen, die sonst für den Menschen nicht erkennbar gewesen wären. Vectra, Anbieter eine Plattform für Cybersicherheit auf Basis künstlicher Intelligenz, wirft einen kritischen Blick auf die aktuelle Entwicklung.

Trotz der jüngsten Explosion im Bereich der ML- und KI-Forschung gibt es keine einzige Methode oder keinen Algorithmus, der in allen Fällen am besten funktioniert. Tatsächlich wurde dies formalisiert und mathematisch in einem Ergebnis dargestellt, das als „No Free Lunch“-Theorem bekannt ist (Wolpert und Macready 1997). Kein einzelner Algorithmus übertrifft alle anderen Algorithmen, über alle möglichen Problemzonen hinweg, insbesondere, wenn er unter verschiedenen realen Bedingungen wie räumlicher und zeitlicher Komplexität und Verfügbarkeit von Trainingsdaten betrachtet wird.

Daher müssen KI-Systeme, die darauf ausgelegt sind, fortgeschrittene Cybersicherheitsbedrohungen zu erkennen, auf die spezifischen Probleme zugeschnitten sein, für die sie eingesetzt werden. Sie sollten die besten verfügbaren Tools und Algorithmen für die Arten von Erkennungen nutzen, für die sie bestimmt sind. Wie in anderen Bereichen müssen auch in der Cybersicherheit nach Meinung von Vectra die KI-Systeme nach den folgenden Kriterien validiert werden:

  • Kann das KI-System Vorhersagen erkennen, klassifizieren und treffen, die allein durch den Menschen nicht möglich gewesen wären?
  • Nimmt das KI-System Vorhersagen und Klassifizierungen vor, die den Umfang der erforderlichen menschlichen Eingriffe und Analysen reduzieren? Macht sie Vorhersagen und Klassifizierungen, die die Anzahl der erforderlichen menschlichen Eingriffe und Analysen erhöhen?
  • Die Entwicklung eines KI-Systems, das in der Lage ist, zu lernen, um beide Ziele gleichzeitig zu erreichen, erfordert ein tiefes Verständnis des Problemraums und eine Breite des Verständnisses über maschinelle Lernalgorithmen im Allgemeinen hinweg.

Versuche, monolithische Lösungen zu verwenden, die einheitlich über die unzähligen Sicherheitsbedrohungen und Einfallstore in modernen Netzwerken informiert werden, werden das erstgenannte Ziel verfehlen. Zugleich erzeugen sie zu viele falsche Erkennungen. Ebenso erfordert die Verwendung mehrerer Techniken oder Algorithmen, um jede Art von Bedrohung unabhängig voneinander zu erkennen, ein komplexes Wissen darüber, wie jeder Algorithmus funktioniert und welche Möglichkeiten er haben könnte. Unvollständiges Wissen über den Algorithmus kann zu einer unterdurchschnittlichen Leistung in der Fähigkeit eines Systems führen, eine Bedrohung zu erkennen. Hinzukommt der zusätzliche Arbeitsaufwand, der für Netzwerkadministratoren aufgrund von Fehlalarmen entsteht.

Ist es also an der Zeit, die Verantwortung für den Sicherheitsbetrieb auf die Maschinen zu übertragen? Im Februar 2014 schrieb Martin Wolf für die Londoner Financial Times einen Beitrag mit dem Titel „Enslave the robots and free the poor.“ Er begann mit dem folgenden Zitat: „1955 erzählte Walter Reuther, Chef der US-Autoarbeitergewerkschaft, von einem Besuch in einem neuen automatisch betriebenen Ford-Werk. Sein Gastgeber zeigte auf alle Roboter und fragte: Wie willst du die Gewerkschaftsbeiträge von diesen Typen einziehen? Reuther antwortete: Und wie willst du sie dazu bringen, Ford zu kaufen?“

Die grundlegende Spannung, die Wolf zwischen Arbeit und Automatisierung aufzeigt, existiert seit jeher. Sie macht nicht nur einen großen Teil der akademischen Literatur zur politischen Ökonomie aus, sondern entzündete auch viele der weltweiten Arbeitskämpfe. Die Ludditen zum Beispiel waren eine Bewegung von Textilarbeitern und Webern, die sich der Mechanisierung von Fabriken widersetzten, nicht, wie sie bekanntlich dargestellt werden, weil sie prinzipiell gegen Maschinen waren, sondern weil diese zur Ausbeutung von Arbeitern führten, die nicht an den Gewinnen aus der erhöhten Produktivität durch die Automatisierung beteiligt wurden.

Diese Themen beginnen mit Fragen, die den Kern unserer Vorstellungen von Recht und Ethik betreffen, wie das unvermeidliche Trolley-Problem, das bei selbstfahrenden Autos auftauchen wird: Was sollte ein selbstfahrender Wagen tun, wenn der einzige Weg, einen für seine Insassen tödlichen Unfall zu vermeiden, darin besteht, so auszuweichen, dass sicherlich eine noch größere Anzahl von Fußgängern ums Leben kommen würde? Die Thematik setzt sich fort bis hin zu weitreichenden existentiellen Fragen wie „Was ist die Rolle oder der Zweck des Menschen in einer Welt mit super-intelligenter KI?“.

Dennoch bleibt nach Meinung von Vectra die drängendste Frage bestehen: Wie sollen wir die Wirtschaft und, allgemeiner gesagt, die Gesellschaft in einer Welt organisieren, in der große Teile der menschlichen Arbeit zu verschwinden beginnen? Vereinfacht ausgedrückt: Wie werden die Menschen leben, wenn sie keine Arbeit bekommen können, weil sie durch kostengünstige, leistungsfähigere Maschinen ersetzt werden?

In den letzten Jahren wurden zahlreiche Studien veröffentlicht und Institute eingeweiht, die sich der Frage widmen, welche Aufgaben der Zukunft in den Händen des Menschen bleiben und welche an die Maschinen verteilt werden.

So versuchte beispielsweise der 2013 Oxford Report on The Future of Employment zu beschreiben, welche Kategorien von Arbeitsplätzen vor der Automatisierung sicher sind und welche am stärksten gefährdet sind. Die Studie ging viel weiter und versuchte, Wahrscheinlichkeiten darüber zu ermitteln, wie „computerisierbar“ verschiedene Arbeitsplätze sind. Die Oxford-Studie, so wie viele weitere, argumentieren im Allgemeinen, dass es weniger wahrscheinlich ist, dass kreative Jobs, wie Künstler und Musiker, automatisiert werden. Dennoch leben wir in einer Welt, in der das erste von KI generierte Bild bei Sotheby’s für fast 500.000 Dollar verkauft wurde. Und The Verge hat gerade einen Artikel darüber veröffentlicht, wie KI-generierte Musik die Art und Weise verändert, wie Hits gemacht werden.

Es gibt zwar keine klaren Regeln dafür, welche Arten von kognitiven und manuellen Arbeitsplätzen ersetzt werden, aber die jüngste Anwendung fortschrittlicher Techniken der KI und des maschinellen Lernens im Bereich der Cybersicherheit wird die Sicherheitsanalysten höchstwahrscheinlich nicht arbeitslos machen. Diese Argumentation erfordert ein Verständnis für die Komplexität der Cybersicherheit und den aktuellen Stand der KI.

Versierte Cyberkriminelle bringen ständig neue Methoden hervor, um Netzwerke und Computersysteme anzugreifen. Darüber hinaus entwickeln sich die Netzwerke und die damit verbundenen Geräte ständig weiter, vom Betrieb neuer und aktualisierter Software bis hin zum Hinzufügen neuer Hardwaretypen im Zuge des technologischen Fortschritts.

Der aktuelle Status der KI hingegen ist zwar fortgeschritten, ähnelt aber in seiner Funktionsweise dem menschlichen Wahrnehmungssystem. KI-Methoden können Muster in Datenströmen verarbeiten und erkennen, ähnlich wie das menschliche Auge eingehende visuelle Signale und das Ohr akustische Signale verarbeitet. KI ist jedoch noch nicht in der Lage, das gesamte Wissen eines erfahrenen Systemadministrators abzudecken, weder das Wissen über die Netzwerke, die der Administrator verwaltet, noch über das komplexe Geflecht aus Gesetzen, Unternehmensrichtlinien und Best Practices, die regeln, wie man am besten auf einen Angriff reagiert.

Die Entwicklung des Taschenrechners reduzierte nicht das Bedürfnis der Menschen, die Mathematik zu verstehen, sondern erweiterte den Umfang und die Möglichkeiten dessen, was berechnet werden konnte, erheblich. Daraus entstand die Notwendigkeit, dass Menschen mit mathematischem Verständnis diese Möglichkeiten erkunden.

Ebenso ist die KI nur ein Werkzeug, das den Umfang und die Möglichkeiten der Erkennung von Cyberangriffen erweitert, die sonst nicht erkennbar wären. Wer einmal versucht hat, sich eine hochfrequente, mehrdimensionale Zeitreihe von verschlüsseltem Datenverkehr anzusehen und festzustellen, ob dieser Datenverkehr ein Angriff oder gutartig ist, weiß die Vorteile von KI zu schätzen. Auf absehbare Zeit wird KI nach Meinung von Vectra einfach ein Werkzeug bleiben, das es ermöglicht, immer wieder neue, fortschrittliche Cyberangriffe zu erkennen und darauf zu reagieren.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*