In den letzten Monaten hat die Begeisterung für KI-Technologie rapide zugenommen, was zum großen Teil auf die Veröffentlichung von ChatGPT, einem Chatbot basierend auf einer KI-Sprachmodellierungstechnologie, zurückzuführen ist. [...]
Das Programm wird der Öffentlichkeit kostenlos zur Verfügung gestellt und ist seit seiner Einführung im November letzten Jahres Gegenstand einer scheinbar endlosen öffentlichen Debatte über seine Implikationen.
Die KI-Technologie erweist sich als ziemlich intelligent. Es handelt sich dabei um eine Art zeitgemäße Weiterentwicklung des Konzepts einer Suchmaschine – Nutzer können eine Eingabe machen und erhalten innerhalb weniger Augenblicke eine gut formulierte, genaue und scheinbar vertrauenswürdige Antwort aus Quellen im ganzen Web. Es gibt aber auch schon Berichte über gefährliche Anwendungen von KI, weshalb sich wichtige Fragen aufdrängen: Wie genau wirkt sich die KI auf die Cybersicherheit aus? Können Bedrohungsakteure damit Cyberangriffe starten, die sich selbst immer weiter verbessern? Theoretisch ja. In den letzten Wochen und Monaten wurde bereits verstärkt Malware beobachtet, welche durch Künstliche Intelligenz geschrieben oder verbessert wurde, und es ist davon auszugehen, dass sich dieser Trend verstärkt. Da es bereits Berichte gibt, in welchen von KI-zu-KI Kommunikation gesprochen wird, kann ich mir durchaus ein Szenario in nicht allzu ferner Zukunft vorstellen, in welchem ein von KI generierter Schadcode von einer anderen KI verbessert wird. Daher ist es wichtig, dass Sicherheitsanbieter ihrerseits KI anwenden, um diesem Trend entgegenzuwirken.
Neue Herausforderungen durch KI
Technologieunternehmen nutzen KI und maschinelles Lernen (ML) schon seit Jahren, um Teile ihrer Plattformen zu verbessern. Alltägliche Gebrauchsgegenstände wie Navigationsapps und Autokorrekturfunktionen nutzen KI. Zahlreiche Softwareanbieter nutzen KI in allen möglichen Branchen, um jede Facette ihrer Plattformen zu optimieren.
Die Technologie baut auf unserer menschlichen Intelligenz auf. Erfahrene Cyber-Bedrohungsanalysten bündeln ihr Wissen über die Gewohnheiten, Aktivitäten, Angriffsmethoden und das Verhalten von Bedrohungsakteuren, um den Rahmen für effektive Erfassungssysteme zu schaffen. Auf diese Weise werden automatisch Bedrohungen überwacht, die im Open, Deep und Dark Web auftauchen. Die Nuancen menschlicher Erfahrungen und Intelligenz, gepaart mit der Leistungsfähigkeit des maschinellen Lernens, ermöglichen es, nahtlos zu skalieren und Bedrohungen für eine beliebige Anzahl von Unternehmen zu erkennen.
Leider ist KI nicht nur auf der Seite der Cybersicherheit von Nutzen. Auch um die mit ihrer Hilfe geschaffenen Schutzsysteme zu umgehen, wird die Technologie verwendet. Sie entwickelt sich ständig weiter, und mit der Einführung neuer KI-basierter Tools werden Bedrohungsakteure in der Lage sein, ihre Angriffe viel schneller und effizienter als bisher durchzuführen. Dies stellt ein ernstes Problem für Sicherheitsteams dar, da sie aufgrund ihrer begrenzten Ressourcen nicht endlos skalieren können und somit abgehängt werden.
Was bedeutet das für die Sicherheitsteams?
KI verändert die Art und Weise, wie Bedrohungsakteure Angriffe durchführen, nicht grundlegend. Das größte Risiko bleibt ein altbekanntes: Angreifer können KI nutzen, um das Volumen ihrer Angriffe zu erhöhen, indem sie beispielsweise den Prozess der Bereitstellung eines Phishing-Kits automatisieren. Das Problem an sich bleibt gleich, aber das Ausmaß wird deutlich größer. Tools wie 10Web (Automated Website Builder), die es Benutzern ermöglichen, massenhaft Websites zu klonen, werden dazu beitragen, dass die Zahl der Phishing-Websites, die gefälschte Domains nutzen, erheblich steigt.
Die gute Nachricht ist, dass die Anbieter von Cyber-Bedrohungsdaten vorerst einen Schritt voraus zu seien scheinen. Viele Unternehmen haben schon seit den Anfängen in KI und maschinelles Lernen investiert, lange bevor KI sich im letzten Jahr in der breiten Öffentlichkeit einen Namen gemacht hat. Es werden bereits beträchtliche Ressourcen für Forschung und Entwicklung bereitgestellt, um so viel wie möglich über Phishing-Infrastrukturen und Ausweichmechanismen zu lernen, die fortlaufend in automatischen Überwachungs- und Erkennungsmechanismen einfließen. Es gibt auch schon Algorithmen für maschinelles Lernen, die ähnliche Domains, ähnliche Logos und Grafiken, proprietären HTML-Code und Verletzungen des geistigen Eigentums, gefälschte Social-Media-Profile und vieles mehr erkennen können.
Fazit
Momentan sind KI-Anwendungen nur so intelligent, vorausschauend und leistungsfähig, wie ihre menschlichen Schöpfer es zulassen. Die Verwendung von KI durch Bedrohungsakteure wird die Sicherheitsteams sicherlich vor zusätzliche Herausforderungen stellen, aber das führt in der Regel auch zu hilfreichen Innovationen für die Zukunft. Solange der Mensch die Kontrolle behält, kann KI ein äußerst nützliches Werkzeug für Sicherheitsexperten sein, um sich der wachsenden Bedrohungslage zu stellen und die Cybersicherheit voranzutreiben.
*Markus Auer ist Security Advisor and Sales Director DACH bei BlueVoyant.
Be the first to comment