Künstliche Intelligenz im Fadenkreuz: Diese Angriffsszenarien auf ihre KI-Modelle sollten Unternehmen kennen

Rasend schnell gewinnt KI an Bedeutung und erobert immer mehr Branchen und Unternehmen. Deshalb nehmen Cyberkriminelle verstärkt die KI-Modelle selbst ins Visier und versuchen beispielsweise, sie so zu manipulieren, dass sie sensible Daten preisgeben oder falsche Ergebnisse liefern. [...]

Für KI ist ein umfassendes Sicherheitskonzept notwendig, das weit über Security-Basics wie sichere Zugriffskontrollen, Verschlüsselung und Angriffserkennung hinausgeht. (c) stock.adobe.com/InfiniteFlow

Das Wissen um die Bedrohungen hilft Unternehmen, Risiken richtig einzuschätzen, sinnvolle Prioritäten zu setzen und geeignete Sicherheitsmaßnahmen einzuleiten. Diese Aufgaben obliegen allerdings nicht allein dem Security-Team, denn Sicherheit muss von Anfang an mitgedacht werden – schon bei der Entwicklung und dem Training der Modelle. Idealerweise arbeiten daher Sicherheitsspezialisten, KI-Experten und Software-Entwickler gemeinsam am Schutz von KI-Modellen und Daten. Folgende Bedrohungsszenarien sollten sie dabei berücksichtigen:

Modelldiebstahl

Da die Entwicklung und das Training von KI-Modellen sehr teuer und aufwendig sind, ist es für Cyberkriminelle attraktiv, Modelle zu stehlen oder günstig nachzubauen. Finden sich keine Sicherheitslücken, um gleich das gesamte Modell zu kopieren, können massenhafte Abfragen umfangreiche Informationen zu seinem Verhalten, den Gewichtungen und Parametern sowie zu den Trainingsdaten liefern. Damit lässt sich dann ein vergleichbares Modell erstellen.

Data Poisoning

Durch die Veränderung oder den Austausch von Trainingsdaten können Angreifer ein KI-Modell schwächen. Es arbeitet dann weniger genau oder wird unbrauchbar – möglicherweise auch nur in einem einzigen Bereich. Es lassen sich sogar Hintertüren einbauen: Das Modell liefert dann bei einem bestimmten Input – dem sogenannten Trigger – ein vom Angreifer gewünschtes Ergebnis. Es führt beispielsweise eine vorgegebene Aktion aus oder übersieht eine Bedrohung.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen


Model Inversion

Wie beim Modelldiebstahl wird die KI mit zahllosen Anfragen gefüttert – allerdings nicht, um Informationen zur Funktionsweise zu erhalten, sondern um sie zur Ausgabe von Trainingsdaten zu bewegen oder aus ihren Antworten bestimmte Trainingsdaten zu rekonstruieren. Auf diese Weise können schützenswerte Informationen – etwa personenbezogene Daten oder wertvolles geistiges Eigentum – aus dem Unternehmen abfließen.

Perturbation-Angriffe

Hier werden die Eingabedaten so manipuliert, dass die KI beispielsweise ungenaue Vorhersagen trifft, Daten falsch klassifiziert oder ein bestimmtes Ereignis übersieht. Dafür reichen schon kleine Veränderungen an Sensordaten, Texten oder Bildern. Die Auswirkungen können weitreichend sein, wenn es sich um kritische Systeme etwa zur Erkennung von Cyber-Angriffen oder zur Erkennung von Verkehrsschildern beim autonomen Fahren handelt.

Prompt Injection

Mit geschickt formulierten Anfragen versuchen Cyberkriminelle, die KI zu einem unerwünschten Verhalten zu bewegen. In harmlosen Fällen soll sie nur Schimpfworte verwenden oder andere unangemessene Inhalte ausgeben. Schwerer wiegt es, wenn es den Angreifern gelingt, ihr vertrauliche oder gefährliche Inhalte zu entlocken, etwa sensible interne Daten oder schädlichen Code.

Rewards Hacking

Beim Reinforcement Learning, dem bestärkenden oder verstärkenden Lernen, erhält die KI regelmäßig Feedback zu ihren Entscheidungen. Auf diese Weise lernt sie Schritt für Schritt, welche Entscheidung in einer bestimmten Situation die beste ist. Gelingt es Angreifern allerdings, das Belohnungssystem (Rewards System) zu manipulieren, trainiert sich die KI ein falsches oder nicht optimales Verhalten an und kann ihre künftigen Aufgaben nur unzureichend erfüllen.

DoS- und DDoS-Angriffe

Mit Denial-of-Service- beziehungsweise Distributed-Denial-of-Service-Angriffen lassen sich KI-Systeme überlasten, sodass sie besonders viele Ressourcen verbrauchen oder ihre Aufgaben nicht mehr wahrnehmen können. Damit werden wichtige Geschäftsprozesse im Unternehmen gestört oder Sicherheitssysteme lahmgelegt, um einen anderen Angriff vorzubereiten.

Kompromittierung der Lieferkette

Bei dieser Angriffsvariante kompromittieren Cyberkriminelle die Hardware und Software, die Unternehmen für die KI-Entwicklung und den KI-Einsatz von Dritten beziehen. Da die Infrastrukturen und Software-Stacks für KI meist sehr komplex sind, gibt es viele Systeme, Tools und Bibliotheken, die dafür in Frage kommen – selbst vortrainierte Modelle lassen sich manipulieren, wenn deren Anbieter sie nicht ausreichend schützen. Für die Angreifer reicht es, ein einziges schwaches Glied in der Lieferkette zu finden, um sich Zugang zu den KI-Systemen eines Unternehmens zu sichern.

Christian Scharrer ist Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland. (c) Dell Technologies


„Für KI ist ein umfassendes Sicherheitskonzept notwendig, das weit über Security-Basics wie sichere Zugriffskontrollen, Verschlüsselung und Angriffserkennung hinausgeht“, betont Christian Scharrer, Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland. „Unternehmen müssen sowohl Trainings- als auch Input-Daten sorgfältig validieren und bereinigen und sogenannte Guardrails implementieren, die alle Ein- und Ausgaben überprüfen. Darüber hinaus benötigen sie Tools, die sie bei der Überwachung der Modelle unterstützen und Leistungsveränderungen erkennen – und natürlich sichere Lieferketten für Hardware und Software.“

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*