Generative KI verändert die Bedingungen für Cybersicherheit in Unternehmen

Generative KI bringt für Organisationen drei große Risikofelder mit sich: ausgefeiltere Angriffe durch eine größere Anzahl von Akteuren, eine wachsende Angriffsfläche und die Zunahme von Schwachstellen im gesamten Lebenszyklus individueller GenAI-Lösungen. [...]

Der Studie "New defenses, new threats: What AI and Gen AI bring to cybersecurity" zufolge betrachten Organisationen KI zwar als Technologie mit strategischer Bedeutung für die Stärkung ihrer Cybersicherheitsstrategien, doch die großflächige Einführung von Gen AI in den verschiedensten Branchen führt zu einer erhöhten Vulnerabilität. (c) stock.adobe.com/Mustafa

Die Studie „New defenses, new threats: What AI and Gen AI bring to cybersecurity“ des Capgemini Research Institute zeigt auf, dass neue Cybersicherheitsrisiken für Unternehmen entstehen. Aufgrund der starken Verbreitung von KI und generativer KI (GenAI) ist eine Transformation der Cyberabwehr-Strategien notwendig, um Bedrohungen zu prognostizieren, sie zu erkennen und darauf zu reagieren. Zwei Drittel der Organisationen priorisieren derzeit den Einsatz von KI in ihren Cybersecurity Operations.

Der Studie zufolge betrachten Organisationen KI zwar als Technologie mit strategischer Bedeutung für die Stärkung ihrer Cybersicherheitsstrategien, doch die großflächige Einführung von GenAI in den verschiedensten Branchen führt zu einer erhöhten Vulnerabilität. Generative KI bringt für Organisationen drei große Risikofelder mit sich: ausgefeiltere Angriffe durch eine größere Anzahl von Akteuren, eine wachsende Angriffsfläche und die Zunahme von Schwachstellen im gesamten Lebenszyklus individueller GenAI-Lösungen. Der Missbrauch von KI und generativer KI durch Mitarbeitende verschärft die Situation und kann das Risiko für Datenlecks signifikant steigern.

„Der Einsatz von KI und generativer KI ist ein zweischneidiges Schwert: Einerseits birgt er neuartige Risiken, andererseits ermöglicht er Organisationen, Cybersicherheitsvorfälle schneller und präziser zu erkennen. Intelligente Tools unterstützen IT-Sicherheitsteams dabei, Angriffe abzuwehren, Strategien kontinuierlich zu verbessern und die Sicherheitslandschaft angesichts der fortwährenden Bedrohungslage stets im Blick zu behalten. Entscheidend für den Erfolg sind eine robuste Datenmanagement-Infrastruktur, geeignete Frameworks, klare ethische Richtlinien für den Einsatz von KI – sowie der Mensch. Trainings und Sensibilisierungsprogramme für Mitarbeitende sollten fester Bestandteil des Arbeitsalltags sein“, sagt Arun Varghese, Head of Practices bei Capgemini Österreich.

Zwei Drittel der Organisationen befürchten stärkere Gefährdung

Nahezu alle befragten Organisationen (97 Prozent) berichten von Sicherheitsverstößen oder -problemen im Zusammenhang mit dem Einsatz generativer KI im vergangenen Jahr. GenAI birgt darüber hinaus neue Risiken wie Halluzinieren und das Generieren voreingenommener, schädlicher oder unangemessener Inhalte sowie Angriffe durch Prompt Injection. Zwei von drei Organisationen (67 Prozent) befürchten Data Poisoning und den Verlust sensibler Daten über Datensätze, die zum Training von GenAI-Modellen verwendet werden.

Auch die Fähigkeit von generativer KI, hochrealistische synthetische Inhalte zu erzeugen, birgt neue Risiken: Mehr als zwei von fünf der befragten Organisationen (43 Prozent) geben an, infolge einer Deepfake-Attacke finanzielle Verluste erlitten zu haben. Laut dem Identity Fraud Report fand bisher im Jahr 2024 alle fünf Minuten ein Deepfake-Angriff statt. Fast 6 von 10 Unternehmen halten es für notwendig, ihr Cybersicherheitsbudget zu erhöhen, um ihre Abwehr entsprechend zu stärken.

KI und Gen AI unverzichtbar zur Angriffserkennung und Reaktion

Die Befragung von 1.000 Organisationen, die KI für ihre Cybersicherheit in Betracht ziehen oder bereits einsetzen, zeigt, dass die meisten dies tun, um ihre Daten-, Anwendungs- und Cloud-Sicherheit zu stärken. Denn dank dieser Technologie können sie riesige Datenmengen in kürzester Zeit analysieren, Muster erkennen und potenzielle Sicherheitsverletzungen vorhersagen.

Seit der Integration von KI in ihre Sicherheitskontrollzentren (Security Operations Center, SOC) haben mehr als 60 Prozent der Befragten die Dauer bis zur Erkennung von Angriffen um mindestens 5 Prozent verkürzt und fast 40 Prozent stellten eine um mindestens 5 Prozent reduzierte Behebungsdauer von Sicherheitsvorfällen fest.

Drei von fünf der befragten Organisationen (61 Prozent) betrachten KI als unverzichtbar für eine effektive Reaktion auf Bedrohungen, da sie es ermöglicht, proaktive Sicherheitsstrategien gegen immer versiertere Angreifer umzusetzen. Darüber hinaus geht derselbe Anteil der Befragten davon aus, dass sie durch Gen AI auch langfristig proaktive Verteidigungsstrategien realisieren und Bedrohungen schneller erkennen werden. Mehr als die Hälfte von ihnen ist zudem der Ansicht, dass diese Technologie es Cybersicherheitsanalysten erleichtern wird, sich stärker auf Strategien zur Bekämpfung komplexer Gefährdungen zu konzentrieren.

Methodik

Das Capgemini Research Institute hat für die Studie „New defenses, new threats: What AI and Gen AI bring to cybersecurity“ 1.000 Organisationen aus 12 Branchen und 13 Ländern im asiatisch-pazifischen Raum, in Europa und Nordamerika befragt. Diese Organisationen ziehen KI für die Cybersicherheit in Betracht oder setzen sie bereits ein. Sie erwirtschaften einen Jahresumsatz von mindestens einer Milliarde US-Dollar. Die Befragung fand im Mai 2024 statt. Die befragten Organisationen stammen aus den Branchen Automobil, Konsumgüter, Einzelhandel, Banken, Versicherungen, Telekommunikation, Energie- und Versorgungsunternehmen, Luft-, Raumfahrt und Verteidigung, Hightech, Maschinen- und Anlagenbau, Pharma- und Gesundheitswesen sowie aus dem öffentlichen Sektor.


Mehr Artikel

News

Internationale Konferenz zeigt den Weg zur datengetriebenen Zukunft

Am 13. November 2024 fand im Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie (BMK) die Global Data Spaces Connect 2024 (GDSC24) statt, eine internationale Plattform, die Akteur:innen aus Wirtschaft, Wissenschaft und öffentlicher Verwaltung zu einem Austausch über den aktuellen Stand und die Zukunft der Datenräume (Data Spaces) zusammenbrachte. […]

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*