Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. [...]

Die Sicherheitsherausforderungen, die sich durch generative KI ergeben, sind vielfältig und komplex. Im Kern sind diese Systeme nicht von Natur aus sicher, denn die Modelle selbst können versehentlich sensible Trainingsdaten speichern und offenlegen. (c) stock.adobe.com/Krot_Studio

Angesichts der rasanten KI-Entwicklung wird immer deutlicher, dass die grundlegenden Leitplanken, Plausibilitätsprüfungen und Prompt-basierten Sicherheitsmaßnahmen, die derzeit gelten, durchlässig und unzureichend sind. Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. VAST Data, Anbieter einer Data Plattform für KI-Workloads, erläutert Sicherheitsfragen rund um LLMs.

Moderne generative KI-Workflows verändern die Art und Weise, wie Daten gespeichert und abgerufen werden, grundlegend. Im Gegensatz zur herkömmlichen Datenspeicherung, bei der Metadaten und Zugriffskontrollen eng mit den Daten verknüpft bleiben, fragmentiert und verteilt die KI-Pipeline Daten auf mehrere Komponenten: das Sprachmodell selbst, Eingabeaufforderungen, eingebettete Datenbanken, Vektorspeicher und generierte Ausgaben.

Diese architektonische Verschiebung bedeutet, dass herkömmliche Sicherheitskontrollen wie Active Directory-Gruppen und Access Control Lists (ACLs), also Zugriffssteuerungslisten, unwirksam sind. Dies liegt daran, dass diese Kontrollen nicht durch den KI-Transformationsprozess weitergegeben werden. Es ist ein neues Sicherheitsparadigma erforderlich, um Daten in diesem verteilten KI-Ökosystem zu schützen.

Die Sicherheitsherausforderung der generativen KI

Chatbots, die auf Large Language Models (LLMs) basieren, sind darauf ausgelegt, hilfreich zu sein für Benutzer. Genau dies macht LLMs jedoch anfällig für Tricks und Lügen, die zur Offenlegung sensibler Informationen oder zur Umgehung von Sicherheitskontrollen führen können. Social-Engineering-KI hat sich als neuartiger und besorgniserregender Angriffsvektor herausgestellt. Im Gegensatz zu herkömmlichen Bedrohungen können KI-Systeme durch sorgfältig ausgearbeitete Eingabeaufforderungen für den Zugriff auf oder die Offenlegung geschützter Daten ausgenutzt werden.

Die Sicherheitsherausforderungen, die sich durch generative KI ergeben, sind vielfältig und komplex. Im Kern sind diese Systeme nicht von Natur aus sicher, denn die Modelle selbst können versehentlich sensible Trainingsdaten speichern und offenlegen. Dieses Risiko wird durch die Tatsache verschärft, dass herkömmliche Sicherheitsmaßnahmen und Zugriffskontrollen, auf die sich Unternehmen verlassen, nicht eindeutig auf KI-Interaktionen anwendbar sind.

Prompt-Injection-Angriffe

Besonders besorgniserregend ist das Aufkommen von Prompt-Injection-Angriffen, bei denen sorgfältig gestaltete Eingaben KI-Systeme so manipulieren können, dass sie geschützte Informationen preisgeben. Bestehende Sicherheitstools und -rahmen wurden nicht mit Blick auf KI-spezifische Schwachstellen entwickelt, sodass gefährliche Lücken in unserer Verteidigung entstehen. Da sich die KI-Einführung beschleunigt, benötigen Unternehmen dringend neue Ansätze und Rahmenbedingungen für die Bewertung und das Management dieser einzigartigen Sicherheitsrisiken.

Obwohl Sicherheitsexperten versucht haben, Prompt-basierte Sicherheitsmaßnahmen zu implementieren, haben sich diese Lösungen als unzureichend erwiesen. Zu den gängigen Ansätzen gehören das Hinzufügen von Sicherheitsanweisungen zu Systemaufforderungen, die Implementierung von Schlüsselwortfiltern und Ausgabescans und die Verwendung von Eingabeaufforderungs-Templates und Validierung. Ebenso gängig sind die Überwachung auf verdächtige Interaktionsmuster sowie Ratenbegrenzung und Zugriffskontrollen.

Diese Maßnahmen können jedoch oft durch kreative Eingabeaufforderungsentwicklung, Kontextmanipulation oder durch Ausnutzung der Tendenz der KI, hilfreich zu sein, umgangen werden. So gibt es bereits einige Beispiele dafür, wie Menschen die Prompt-basierten Sicherheitsmaßnahmen von ChatGPT umgehen. Dies ist ein Problem, dass alle generativen KI-Workloads betrifft, ChatGPT ist derzeit das beliebteste und das größte Ziel. Folglich sind robustere, systematischere Ansätze für die KI-Sicherheit erforderlich, die KI-Systeme mit der gleichen Sicherheitsstrenge behandeln wie menschliche Benutzer.

Lösungsansätze und Beispielszenarien

Wenn es um den Schutz von Daten in generativen KI-Workloads geht, gilt es zu einer grundlegenden Wahrheit zurückkehren: Der einzige garantierte Weg, Daten vor KI-Systemen zu schützen, ist derselbe Ansatz, der dazu dient, Daten vor Menschen zu schützen. Genauso wie Unternehmen den menschlichen Zugriff auf sensible Informationen durch robuste Authentifizierungs- und Autorisierungsmechanismen sorgfältig kontrollieren, müssen sie nun entsprechende Schutzmaßnahmen auf die KI-Systeme anwenden, die mit ihren Daten interagieren. Dies bedeutet es, sicherzustellen, dass Benutzer gemäß den Zero-Trust-Prinzipien über den entsprechenden Zugriff auf Daten verfügen. Ebenso ist es erforderlich, Sicherheitskontrollen auf den Ebenen LLM, Einbettung, Vektorspeicher und Datenbank zu implementieren sowie alle Datenzugriffe zu protokollieren und zu prüfen.

Selbst wenn Unternehmen ein Allzweck-LLM verwenden, können die Daten, mit denen es interagiert, sensibel sein und denselben Schutz erfordern. Die folgenden fiktiven Beispiele verdeutlichen die Notwendigkeit von Sicherheitskontrollen auf jeder Ebene der KI-Pipeline: Ein Sicherheitsingenieur hat möglicherweise Zugriff auf ein LLM, das auf Sicherheitsdaten abgestimmt ist, und die generative KI-RAG-Pipeline hat Zugriff auf weitere Daten. Die Sicherheitskontrollen müssen auf jeder Ebene angewendet werden. Ein Marketingmanager wiederum hat vielleicht Zugriff auf ein LLM, das auf Marketingdaten abgestimmt ist, und die generative KI-RAG-Pipeline hat Zugriff auf weitere Daten. Die Sicherheitskontrollen müssen auch in diesem Fall auf jeder Ebene angewendet werden. Diese Personen haben möglicherweise gleichzeitig Zugriff auf zusätzliche Informationen wie Personalrichtlinien, Verfahren und andere Unternehmensdaten, was die Lösung nicht einfach macht.

Fazit: Umfassende Sicherheit für Generative-AI-Workloads

Die aktuellen Entwicklungen erfordern Lösungen, die eine umfassende Sicherheit für Generative-AI-Workloads im ExaScale-Maßstab bieten können, um das Problem der Datenausbreitung und die damit verbundenen Sicherheitsrisiken der Datenspeicherung an mehreren Standorten zu lösen. Ideal ist eine zentrale Instanz für die Verwaltung komplexer, mehrschichtiger Datei-Authentifizierung. Durch die Kombination sicherer Datenpipelines mit robusten Prüfmöglichkeiten gewährleistet solch eine Instanz Echtzeit-Transparenz bei Zugriffs- und Betriebsereignissen. Dieser doppelte Fokus auf Sicherheit und Verantwortlichkeit macht die InsightEngine zu einem Eckpfeiler für KI-gesteuerte Prozesse und erfüllt die Anforderungen moderner KI-Ökosysteme mit einem hohen Maß an Präzision, Skalierbarkeit und Compliance.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*