Viele Unternehmen argumentieren, dass sie die volle Kontrolle über sensible Daten behalten und die Risiken von Cloud-Diensten vermeiden, wenn sie KI-Modelle auf der eigenen Infrastruktur betreiben. Was auf den ersten Blick als sichere Lösung erscheint, entpuppt sich bei näherer Betrachtung als gefährliche Sicherheitsillusion. [...]
In einer Zeit, in der Datenhoheit und Datenschutz zu entscheidenden Wettbewerbsfaktoren geworden sind, setzen immer mehr Unternehmen auf lokale KI-Implementierungen. Der Grundgedanke ist intuitiv: Wer ein KI-Modell auf der eigenen Infrastruktur betreibt, behält die volle Kontrolle über sensible Daten und vermeidet die Risiken von Cloud-Diensten. Was auf den ersten Blick als sichere Lösung erscheint, entpuppt sich bei näherer Betrachtung als gefährliche Sicherheitsillusion. Sie führt zu einem erheblichen Anstieg der Cyberrisiken und stellt IT-Verantwortliche vor neue, komplexe Herausforderungen.
Achtung Schatten-KI!
Das größte Problem lokaler KI-Implementierungen ist ihre Entstehung als Schatten-KI. Mitarbeiter, die ihre Produktivität mit frei verfügbaren Tools steigern wollen, laden eigenständig Open-Source-Modelle herunter und richten lokale Schnittstellen ein – und zwar außerhalb jeder Kontrolle durch die IT- und Cybersicherheitsteams. Dieser Mangel an Sichtbarkeit ist fatal, denn die wichtigste Regel der IT-Sicherheit besagt: Was man nicht kennt, kann man nicht schützen.
Die unregulierte Nutzung steigt dramatisch an. Mehr als die Hälfte aller KI-basierten Anwendungen, die in Unternehmen genutzt werden, fallen unter die Kategorie der Schatten-KI. GenAI-Plattformen, die es Usern ermöglichen, eigene KI-Anwendungen und autonome Agenten zu bauen, sind die am schnellsten wachsende Form dieser Schatten-KI. In den drei Monaten bis Mai 2025 stieg die Zahl der Nutzer dieser Plattformen um 50 Prozent, begleitet von einem Anstieg des Netzwerkverkehrs um 73 Prozent. Das zeigt, dass der Wunsch nach Innovation die Notwendigkeit von Sicherheit in der täglichen Praxis überholt hat.
Viele dieser lokalen Tools verfügen über keine eingebauten Schutzmechanismen. Ein populäres Beispiel ist Ollama, eine lokale LLM-Schnittstelle, die bereits von 33 Prozent der Unternehmen genutzt wird. Sie bietet keine Standardauthentifizierung oder grundlegende Sicherheitsvorkehrungen. Das bedeutet, dass die gesamte Verantwortung für die Absicherung beim einzelnen User liegt. Das ist ein potenzielles Einfallstor für Angreifer.
Unterschätzte Gefahr der Datenquellen
Die Risiken gehen über die fehlende Sichtbarkeit hinaus. Lokale KI-Entwicklungen sind stark auf öffentliche Marktplätze wie Hugging Face angewiesen, die eine Fülle von Modellen, Datensätzen und Tools zum Austausch anbieten. Angreifer haben diese Plattformen längst als Einfallstore entdeckt. Sie können einen bösartigen Code in scheinbar harmlose Modelle oder Datensätze einbetten. Besonders gefährlich sind anfällige Dateiformate wie Python Pickles, die die Ausführung von beliebigen Codes im Unternehmensnetzwerk ermöglichen. Die Gefahr ist real: Jeder technisch versierte Mitarbeiter, der ein ungeprüftes Modell herunterlädt, könnte unbewusst einen direkten Zugang für einen Angreifer schaffen. Das Ausmaß dieser Bedrohung ist immens, denn zwei Drittel der Unternehmen verzeichnen bereits Zugriffe auf diese Plattformen.
Zusätzlich bergen die KI-Modelle oder -Agenten selbst ein enormes Datensicherheitsrisiko. Um ihre Aufgaben zu trainieren oder auszuführen, benötigen die meisten einen direkten Zugriff auf interne Unternehmensdatenquellen. Ohne eine präzise Einschränkung der Berechtigungsstufen können sensible Daten schnell offengelegt werden. Diese mangelnde Transparenz über die genutzten Datenquellen und die unkontrollierte Interaktion der KI mit diesen kritischen Informationen machen lokale Implementierungen zu einem Einfallstor für Datenlecks und Compliance-Verstöße.
Vom Verbot zur sicheren Aktivierung
Angesichts dieser Risiken wäre es verlockend, lokale KI einfach zu verbieten. Das würde jedoch die Innovation bremsen, die Frustration der Mitarbeiter erhöhen und das Problem der Schatten-IT nicht lösen. Stattdessen sollten Sicherheitsteams eine proaktive Strategie der „sicheren Aktivierung“ verfolgen. Die Priorität liegt darin, Schatten-KI zu identifizieren und zu verstehen, wer diese Tools nutzt, wie sie genutzt werden und wo Datenflüsse Risiken bergen können.
Dies erfordert eine konvergente Sicherheitsplattform, die vollständige Transparenz und Kontrolle über Datenverkehr, Netzwerk, User und Daten bietet – sowohl in der Cloud als auch in lokalen Umgebungen. Nur so können Unternehmen die Vorteile lokaler KI-Lösungen nutzen, ohne ihre Sicherheit zu gefährden. In der KI-Ära geht es für IT-Verantwortliche nicht mehr darum, zu verbieten, sondern darum, Innovation zu ermöglichen und zu steuern. Der Schutz von Daten und die Förderung von Innovation müssen Hand in Hand gehen, um im digitalen Wandel erfolgreich zu sein.
* Mathias Widler ist Vice President Central & Eastern Europe bei Netskope.

Be the first to comment