Warum autonome Sicherheit ohne den Menschen unmöglich ist

Die zunehmende Verbreitung autonomer Sicherheitstools hat zwar die Arbeitsweise von Sicherheitsteams verändert, kann aber menschliches Fachwissen nicht ersetzen. [...]

Foto: Peace,love,happiness/Pixabay

Künstliche Intelligenz und maschinelles Lernen verändern die Endpoint Security und damit auch die Arbeitsweise von Sicherheitsteams. Sicherheitsexperten brauchen sich jedoch keine Sorgen machen, dass sie durch eine Maschine ersetzt werden – Unternehmen benötigen nach wie vor die Expertise qualifizierter Mitarbeiter, um sich gegen fortschrittliche Angreifer zu verteidigen. 

Unternehmen weisen heute eine immer komplexere IT-Infrastruktur auf, sind stärker auf die Cloud angewiesen und beschäftigen mehr Mitarbeiter an unterschiedlichen Standorten, das Homeoffice eingeschlossen – all das vergrößert die Angriffsfläche.

So werden Technologien wie Extended Detection and Response (XDR) und Security Orchestration, Automation and Response (SOAR) für Unternehmen interessant, die zu wenig Personal haben, um die Flut an Sicherheitswarnungen zu bearbeiten.

Außerdem helfen diese autonomen Technologien dabei, Ereignisse zu scannen und zu priorisieren, sich wiederholende Aufgaben zu automatisieren, damit sich die Analysten auf die dringendsten Aufgaben konzentrieren und neu entdeckte Bedrohungen identifizieren und organisieren können. 

Dank dieser Tools können sich die Verteidiger im Kampf gegen Angreifer besser behaupten: Denn die kontinuierliche Einführung KI-gestützter Tools ermöglicht eine weitaus schnellere und umfassendere Datenanalyse und Entscheidungsfindung als die manuelle Analyse allein.

Das Zusammenspiel von maschineller und menschlicher Intelligenz

Auch wenn sich die Zukunft natürlich nicht voraussehen lässt, ist es dennoch sehr unwahrscheinlich, dass  Künstliche Intelligenz menschliche Sicherheitsexperten vollständig ersetzen wird, egal wie fähig und effektiv sie auch sein mag.

Allein mit diesen Tools lassen sich die Sicherheitsprobleme von Unternehmen nicht lösen. Es bedarf vielmehr einer Kombination aus maschineller und menschlicher Intelligenz, um die Sicherheitsherausforderungen zu bewältigen, mit denen Unternehmen heutzutage konfrontiert sind.

Denn anstatt von der Technologie verdrängt zu werden, werden Sicherheitsexperten in Zukunft Hand in Hand mit künstlicher Intelligenz arbeiten, um fortschrittliche Bedrohungen abzuwehren.

Doch auch wenn die KI-Tools den Menschen nicht vollständig ersetzen werden, werden sie dennoch die Sicherheitsjobs an sich verändern.

Stellen Sie sich die Arbeit eines Level-One-Analysten vor, der einen Großteil seiner Zeit damit verbringt, Sicherheitswarnungen auszuwerten und potenzielle Probleme zu untersuchen. Mithilfe von KI fließen mehr Daten und Facetten in die automatisierte Analyse ein, was zu zuverlässigeren Warnungen und weniger Alarmmüdigkeit führt.

Dadurch können die Analysten mehr Zeit für die Analyse von höher priorisierten Ereignissen aufwenden, insbesondere in schwer zu beurteilenden und mehrdeutigen Situationen. Menschliche Aufmerksamkeit ist eine begrenzte Ressource, und auf diese Weise können Unternehmen das Fachwissen ihrer Belegschaft dort einsetzen, wo es am wichtigsten ist.

Autonome Tools werden Sicherheitsexperten in gewisser Weise neue Fähigkeiten abverlangen. Um Aufgaben effektiv zu automatisieren und Bedrohungen zu erkennen, ist die KI-Technologie auf große Mengen an Daten angewiesen.

Diese sind nicht alle gleich geschaffen. Es gibt noch eine andere Art von Daten, die häufig von uns Menschen geliefert werden muss. Wir nennen diese Art von Daten „Ground Truth“ oder Grundwahrheit, und sie hat einen erheblichen Einfluss auf das Training von KI-Modellen.

Diese Art von Daten beschreibt, wie sich ein KI-Modell auf der Grundlage bestimmter Eingaben verhalten soll, und bilden das Ziel für das Training des Modells. Das menschliche Wissen ist eine unschätzbare Quelle für die Ground Truth, die es KI-Modellen ermöglicht, von menschlichem Fachwissen zu lernen.

Die Fähigkeit der autonomen Technologie, Entscheidungen zu treffen, hängt von der Menge und der Qualität der verarbeiteten Daten ab sowie von ihrer Fähigkeit zu lernen und sich zu verbessern. Sicherheitsfachkräfte, die die Algorithmen so trainieren können, dass diese Sicherheitsverletzungen zuverlässiger erkennen und darauf reagieren können, werden sehr gefragt sein.

Denn menschliches Fachwissen ist unerlässlich, um die Zahl der echten positiven Erkennungen zu maximieren und gleichzeitig die Zahl der Fehlalarme auf ein Minimum zu reduzieren. Auch wenn KI-Technologien bereits weit fortgeschritten sind, gibt es noch viel Raum für Verbesserungen, um die Effizienz der Modelle zu steigern.

Darüber hinaus kann KI-Technologie zwar nützlich sein, um immer größere Datenmengen zu verarbeiten und sich wiederholende Aufgaben zu automatisieren, sie ist jedoch kein Ersatz für menschliches Wissen oder Erfahrung in diesem Bereich.

Jedes Unternehmen braucht für die Bedrohungsjagd und die Untersuchung von Sicherheitsverletzungen Fachkräfte, die in der Lage sind, Daten zu analysieren, Erkenntnisse zu gewinnen und schnell über das weitere Vorgehen zu entscheiden.

Autonome Tools erkennen nicht unbedingt alle neuen Bedrohungen, die von gut ausgestatteten und hochmotivierten Angreifern entwickelt wurden und die nicht in die von ihnen gesammelten Daten passen. In diesen Fällen ist menschliche Erfahrung erforderlich, um neue potenzielle Bedrohungsaktivitäten zu analysieren, entsprechende Entscheidungen zu treffen und sicherzustellen, dass diese neuen Erkenntnisse dem Informationspool hinzugefügt werden, aus dem die KI lernt.

Ein gut durchdachtes KI-System lernt und verbessert sich ständig, wobei dieser Prozess maßgeblich von der Fähigkeit abhängt, die vom Menschen gewonnenen Erkenntnisse in den zugrunde liegenden Wissensfundus einzuspeisen.

Unternehmen werden zudem Sicherheitsfachkräfte benötigen, die ihnen helfen, sich gegen Angreifer zu verteidigen, die künstliche Intelligenz einsetzen, um die Verteidigungs-KI in immer raffinierteren Angriffen zu besiegen.

Denn künstliche Intelligenz hat eine eigene Angriffsfläche – vgl. z.B. das MITRE ATLAS-Framework, das dem bekannten ATT&CK-Framework für Angreifertechniken nachempfunden ist. Angesichts der Tatsache, dass KI ein zentrales Werkzeug für die Arbeit mit immer größeren und komplexeren Datensätzen ist, dürfen wir Menschen nicht die Augen vor den inhärenten Grenzen der KI verschließen und blind auf ihre Leistung vertrauen.

Vorbereitung auf eine KI-fokussierte Zukunft 

Da sich Technologien ständig weiterentwickeln, müssen sich auch Sicherheitsfachkräfte den neuen Gegebenheiten anpassen. Wir erleben dies im Fall von KI-gestützten Tools, die bereits die Arbeitsweise von Sicherheitsteams verändern, indem sie ihnen die notwendigen Fähigkeiten bieten, um ihre Arbeit effektiver zu erledigen und den Angreifern einen Schritt voraus zu sein. 

Doch so leistungsfähig die Technologie auch sein mag, sie ist nur ein Teil einer starken Verteidigung. Das menschliche Fachwissen spielt in dieser KI-gestützten Zukunft eine entscheidende Rolle.

Wir werden auch in Zukunft Menschen brauchen, um die Technologie zu verwalten, Daten zu analysieren, Erkenntnisse zu gewinnen, strategische Entscheidungen zu treffen und KI-basierte Produkte so zu trainieren, dass sie sich kontinuierlich anpassen und verbessern.

KI wird den Menschen vielleicht nie vollständig ersetzen, aber sie ermöglicht uns, uns gegen immer besser ausgerüstete Gegner effektiv zu verteidigen.

powered by www.it-daily.net


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*