Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. [...]

Schatten-KI ist inzwischen die größte Schatten-IT-Herausforderung für Unternehmen, da 72 Prozent der Unternehmensnutzer in den GenAI-Apps, die sie für die Arbeit nutzen, ihre persönlichen Konten verwenden. (c) stock.adobe.com/WrightStudio

Der Generative AI Cloud and Threat Report 2025 von Netskope Threat Labs zeigt die allgegenwärtige Nutzung von GenAI in Unternehmen auf. Zum Zeitpunkt der Reporterstellung hatte Netskope Einblick in 317 GenAI-Apps wie ChatGPT, Google Gemini und GitHub Copilot. Eine umfassendere, unternehmensübergreifende Analyse ergab, dass 75 Prozent der Unternehmensnutzer auf Anwendungen mit GenAI-Funktionen zugreifen. Dadurch entsteht ein größeres Problem, mit dem sich Sicherheitsteams befassen müssen: die unbeabsichtigte Insider-Bedrohung. 

Laut dem Report hat die Menge an Daten, die Unternehmensanwendern an GenAI-Apps senden, im Jahr 2024 um das 30-fache zugenommen. Bei diesen Daten handelt es sich auch um sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich.

Der Bericht hebt zudem hervor, dass Schatten-KI inzwischen die größte Schatten-IT-Herausforderung für Unternehmen ist, da 72 Prozent der Unternehmensnutzer in den GenAI-Apps, die sie für die Arbeit nutzen, ihre persönlichen Konten verwenden.

„Trotz der ernsthaften Bemühungen von Unternehmen, unternehmenseigene GenAI-Tools zu implementieren, zeigt unsere Studie, dass Schatten-IT zur Schatten-KI geworden ist. Dabei greifen fast drei Viertel der Nutzer immer noch über persönliche Konten auf GenAI-Apps zu“, erläutert James Robinson, CISO von Netskope. „Dieser anhaltende Trend in Kombination mit den Daten, die geteilt werden, unterstreicht den Bedarf an fortschrittlichen Datensicherheitsfunktionen. Mit ihnen können Sicherheits- und Risikomanagementteams wieder Governance, Transparenz und eine akzeptable Nutzung von GenAI in ihren Organisationen erlangen.“ 

 GenAI-Risikominderung 

Viele Unternehmen haben keinen oder einen eingeschränkten Überblick darüber, wie Daten im Rahmen der indirekten GenAI-Nutzung verarbeitet, gespeichert und genutzt werden. Oft entscheiden sie sich für eine „erst blockieren und dann Fragen stellen“-Politik, indem sie bestimmte Apps ausdrücklich zulassen und alle anderen blockieren. Die Sicherheitsverantwortlichen müssen jedoch eine sichere Aktivierungsstrategie verfolgen, da die Mitarbeiter Effizienz- und Produktivitätsvorteile aus diesen Tools ziehen wollen.

„Unsere neuesten Daten zeigen, dass GenAI nicht länger eine Nischentechnologie ist, sondern überall vorkommt“, sagt Ray Canzanese, Director of Netskope Threat Labs. „Sie wird zunehmend in alles integriert, von speziellen Anwendungen bis hin zu Backend- Integrationen. Diese Allgegenwärtigkeit stellt eine wachsende Herausforderung für die Cybersicherheit dar. Sie verlangt von Unternehmen einen weitreichenden Ansatz für das Risikomanagement. Andernfalls riskieren sie, dass ihre sensiblen Daten an Dritte weitergegeben werden, die sie zum Trainieren neuer KI-Modelle verwenden könnten, was wiederum Möglichkeiten für eine noch umfassendere Offenlegung von Daten schafft.“

Im vergangenen Jahr hat Netskope Threat Labs außerdem beobachtet, dass die Zahl der Unternehmen, die ihre GenAI-Infrastruktur lokal betreiben, stark gestiegen ist – von weniger als 1 Prozent auf 54 Prozent – und dieser Trend wird sich voraussichtlich fortsetzen. Obwohl die Risiken einer unerwünschten Datenexposition durch Drittanbieter-Apps in der Cloud reduziert werden, bringt die Verlagerung auf eine lokale Infrastruktur neue Datensicherheitsrisiken mit sich. Das reicht von Lieferketten, Datenlecks und unsachgemäßer Handhabung der Datenausgabe bis hin zu Prompt Injection, Jailbreaks und Extraktion von Meta-Prompts. Infolgedessen fügen viele Unternehmen zu den bereits verwendeten cloudbasierten GenAI-Apps eine lokal gehostete GenAI-Infrastruktur  hinzu.

„KI verändert nicht nur die Sicherheit von Perimetern und Plattformen – sie schreibt die Regeln neu“, sagt Ari Giguere, Vice President of Security and Intelligence Operations bei Netskope. „Da Angreifer ihre Bedrohungen mit generativer Präzision entwickeln, muss die Verteidigung ebenso generativ sein und sich in Echtzeit weiterentwickeln, um der daraus resultierenden ‚Innovationsinflation‘ zu begegnen. Eine effektive Bekämpfung eines kreativen menschlichen Gegners wird immer einen kreativen menschlichen Verteidiger erfordern, aber auf einem KI-gesteuerten Schlachtfeld kann nur KI-gestützte Sicherheit Schritt halten.“ 

Sichere GenAI-Nutzung

Im Kampf gegen KI-gesteuerte Bedrohungen setzen viele Unternehmen auf Sicherheitstools, die bereits in ihren Technologiepaketen enthalten sind. Fast 100 Prozent der Unternehmen arbeiten daran, ihre KI-Risiken mit Richtlinien zu reduzieren, die es ihnen ermöglichen, den Zugriff auf KI-Tools zu blockieren und/oder zu kontrollieren, welche Benutzer auf bestimmte KI-Tools zugreifen können und welche Daten mit diesen Tools geteilt werden können.

Netskope empfiehlt Unternehmen, ihre Risikorahmenbedingungen zu überprüfen, anzupassen und speziell auf KI oder GenAI zuzuschneiden, um einen angemessenen Schutz von Daten, Nutzern und Netzwerken zu gewährleisten. Um das Risiko durch GenAI zu bewältigen, bieten sich folgende Maßnahmen an: 

  • Bewerten Sie Ihre GenAI-Landschaft: Informieren Sie sich darüber, welche GenAI-Apps und lokal gehostete GenAI-Infrastruktur Sie nutzen, wer sie nutzt und wie sie genutzt werden. 
  • Verstärken Sie Ihre GenAI-App-Kontrollen: Überprüfen Sie Ihre Kontrollen regelmäßig anhand von Best Practices – zum Beispiel indem Sie nur zugelassene Apps erlauben, nicht zugelassene Apps blockieren, DLP einsetzen, um zu verhindern, dass sensible Daten mit nicht zugelassenen Apps geteilt werden, und Echtzeit-Nutzer-Coaching nutzen. 

Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*