Riskanter Hype um KI: IT-Entscheider setzen Cybersicherheit aufs Spiel

Ein Großteil der IT-Entscheidungsträger sehen Künstliche Intelligenz (KI) als Allheilmittel bei Schwachstellen der IT-Sicherheit. Zu diesem Schluss kommt eine Studie von ESET. Dieser Trend könnte die Gefahr erhöhen, dass Unternehmen Opfer von Cyberkriminalität werden. [...]

Trend um Künstliche Intelligenz und Machine Learning könnte die Cybersicherheit von Unternehmen gefährden. (c) pixabay
Trend um Künstliche Intelligenz und Machine Learning könnte die Cybersicherheit von Unternehmen gefährden. (c) pixabay

Ob in Marketingmaterialien, Medien oder Social Media: Im letzten Jahr wurde enorm viel über die Rolle von KI in der Cybersicherheit geschrieben. ESET befragte deswegen 900 IT-Entscheider in den USA, Großbritannien und Deutschland zu ihrer Einstellung zu KI und ML (Machine Learning) im Umfeld dieses Hypes.

Die Ergebnisse zeigen, dass die IT-Entscheidungsträger in den USA die Technologien im Ländervergleich am ehesten als Allheilmittel zur Lösung ihrer Cybersicherheits-herausforderungen betrachten (82 Prozent). Etwas anders die europäischen Kollegen: In Großbritannien sehen dies nur 67 Prozent so, in Deutschland sind es 66 Prozent. Die Mehrheit der Befragten ist der Meinung, dass KI und ML ihrer Organisation helfen würden, Bedrohungen schneller zu erkennen und darauf zu reagieren (79 Prozent) und Kompetenzlücken aufgrund von Fachkräftemangel zu beheben (77 Prozent).

„Es ist beunruhigend zu sehen, dass der Hype um KI und ML die Cybersicherheit von Unternehmen gefährden könnte. Wenn uns das letzte Jahrzehnt etwas gelehrt hat, dann, dass es für manche Dinge keine einfache Lösung gibt. Das gilt besonders für den Cyberspace, wo sich die Bedingungen binnen weniger Minuten verändern können. In der heutigen Geschäftswelt wäre es unklug, sich nur auf eine Technologie zu verlassen, um eine widerstandsfähige Cyberabwehr aufzubauen. Es ist wichtig, dass IT-Entscheidungsträger erkennen, dass ML zweifellos ein wichtiges Instrument im Kampf gegen Cyberkriminalität ist, aber eben nur ein Teil der gesamten Cyber-Sicherheitsstrategie eines Unternehmens sein sollte“, sagt Juraj Malcho, Chief Technology Officer bei ESET.

Fehlkommunikation führt zu Missverständnissen

Während viele IT-Entscheidungsträger KI und ML in der Cybersecurity als künftigen Idealweg betrachten, hat die Mehrheit der Befragten ML bereits in ihre Cybersicherheitsstrategien aufgenommen. 89 Prozent der deutschen Befragten, 87 Prozent der US-Umfrageteilnehmer und 78 Prozent der britischen Befragten gaben an, dass ihre Endgeräte-Sicherheitslösung ML zur Abwehr bösartiger Angriffe verwendet.
Darüber hinaus gaben viele Befragte an, dass ihnen die unterschiedliche Bedeutung von „KI“ und „ML“ nicht wirklich klar sei: Nur 53 Prozent der IT-Entscheider sagen, dass in ihrem Unternehmen die Unterschiede zwischen beiden vollständig verstanden würden.

„Wenn es um KI und ML geht, tauchen in manchen Marketingmaterialien irreführende Verwendungen der Begriffe auf. Das führt dazu, dass IT-Entscheider in allen Märkten weltweit verunsichert sind, was sie glauben sollen. Wahr ist, dass es in der Cybersicherheit wie überall sonst noch keine echte, vollständige KI gibt. Der Hype um die Neuheit von ML ist zudem komplett irreführend, denn die Technologie an sich wird schon lange eingesetzt. Da die Bedrohungsszenarien immer komplexer werden, sollten wir Unternehmen nicht noch zusätzlich verunsichern. Hier muss Klarheit geschaffen werden: Der Hype macht es für diejenigen, die entscheiden, wie sie die Netzwerke und Daten ihres Unternehmens am besten absichern können, schwer, den richtigen Weg zu wählen“, so Malcho.

Die Grenzen verstehen

ML ist von unschätzbarem Wert für die Wahrung von Cybersicherheit, insbesondere beim Erkennen von Malware. Als Schutzlösung funktioniert es so: Sie basiert auf großen Datenmengen und Erfahrungen aus der Vergangenheit, bestehend sowohl aus als gutartig gekennzeichneten als auch bösartigen Materialsammlungen. Das ist die Grundlage, auf der ML zwischen „gut“ und „schlecht“ unterscheidet. So kann es potenzielle Bedrohungen für Benutzer schnell analysieren, identifizieren und Malware abwehren.

Für Unternehmen ist es jedoch wichtig, die Grenzen von ML zu verstehen. Zum Beispiel muss auch bei ML immer noch ein Mensch die Erstklassifizierung durchführen, um potenziell bösartige Proben zu untersuchen und vor allem die Anzahl der Fehlalarme zu reduzieren. ML-Algorithmen haben zudem einen engen Fokus und arbeiten mit Regelwerken. Aber Hacker lernen weiter – ein kreativer Cyberkrimineller kann Szenarien einführen, die für ein ML-System komplett neu sind und können es somit überlisten. Algorithmen des maschinellen Lernens können auf vielfältige Weise irregeführt werden und Hacker können dies ausnutzen, indem sie bösartigen Code erstellen, den ML dann fälschlicherweise als gutartiges Objekt klassifiziert.

Malcho schlussfolgert: „Seit 1995 setzen wir maschinelles Lernen als Teil unseres Arsenals gegen Cyberkriminelle ein. Aber das allein reicht nicht aus. Indem Unternehmen sich über die Grenzen von ML informieren, können sie einen strategischeren Ansatz für den Aufbau einer robusten Verteidigung wählen. Mehrschichtige Lösungen, kombiniert mit talentierten und qualifizierten Mitarbeitern, werden der einzige Weg sein, den Hackern immer einen Schritt voraus zu sein, wenn sich die Bedrohungslandschaft weiterentwickelt.“


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*