Die Integration künstlicher Intelligenz in Unternehmen birgt neben Produktivitätssteigerungen auch wachsende Sicherheitsrisiken. Unachtsame oder unautorisierte KI-Nutzung durch Mitarbeiter kann zu Datenlecks und anderen Bedrohungen führen. [...]
Die verstärkte Integration von Künstlicher Intelligenz (KI) in Unternehmen eröffnet vielfältige Chancen, bringt jedoch auch neue Sicherheitsrisiken mit sich. Insbesondere durch die Nutzung generativer KI-Tools durch Mitarbeitende steigt die Gefahr, dass diese unbeabsichtigt zu Bedrohungsakteuren werden. Laut Zilvinas Girenas, KI-Sicherheitsexperte bei nexos.ai, verschärft sich die Situation mit der verbreiteten Nutzung von KI-Anwendungen im Arbeitsumfeld. „Die Sicherheitsrisiken, die sich aus fehlerhafter oder missbräuchlicher Handhabung von KI durch Mitarbeitende ergeben, nehmen zu“, erklärt Girenas. Unternehmen stehen daher vor der Herausforderung, den Mehrwert von KI gegen entstehende Sicherheitslücken abzuwägen.
„Datenlecks und der Verlust sensibler Informationen führen zu Reputationsschäden. Viele Unternehmen stehen daher vor der Zwickmühle, die KI-Nutzung zu fördern oder zu verbieten, was zu Spannungen zwischen Mitarbeiterproduktivität und Sicherheit führt“, so Girenas.
Drei wesentliche Risikofelder bei der KI-Nutzung durch Mitarbeitende
Girenas identifiziert drei zentrale Gefahrenquellen:
- Datenexposition: Mitarbeiter könnten sensible oder vertrauliche Unternehmensdaten in KI-Tools eingeben, insbesondere in Cloud-basierte generative KI-Plattformen. Dabei ist ihnen möglicherweise nicht bewusst, dass diese Eingaben gespeichert, analysiert oder sogar zum Training von Modellen verwendet werden könnten. Dies kann zu unbeabsichtigten Datenlecks führen.
- Schatten-KI-Nutzung: Verwenden Mitarbeiter KI-Tools, die nicht von den IT- oder Sicherheitsteams des Unternehmens genehmigt wurden, entsteht sogenannte Schatten-IT. Diesen ungeprüften Plattformen fehlen möglicherweise die notwendigen Sicherheitskontrollen, Compliance-Zertifizierungen oder Richtlinien zur Datenverwaltung, wodurch blinde Flecken im Risikomanagement entstehen.
- Prompt Injection oder Modellmanipulation: KI-Tools können anfällig für sogenannte Prompt-Injection- und Data-Poisoning-Angriffe sein. Verlassen sich Mitarbeiter auf Ausgaben kompromittierter KI-Modelle oder Bots, könnten sie auf manipulierten oder bösartigen Ratschlägen basierende Handlungen vornehmen, beispielsweise schädliche Anweisungen in automatisierten Workflows, was zu potenziellen Schäden oder Sicherheitsverletzungen führen kann.
Balance zwischen KI-Adaption und effektivem Risikomanagement
„Im heutigen digitalen Zeitalter sollte die Optimierung von Arbeitsabläufen durch die Eingabe von Unternehmensdaten nicht auf Kosten der Sicherheit gehen; ohne die richtigen Schutzmaßnahmen ist dies jedoch oft der Fall“, so Zilvinas Girenas. Um von Mitarbeitern verursachte KI-Schwachstellen zu minimieren und den modernen Arbeitsplatz zu sichern, sollten folgende Aspekte berücksichtigt werden:
- Klare Richtlinien-Durchsetzung: Eine konsistente Implementierung und Kommunikation von Richtlinien bezüglich der zulässigen Nutzung genehmigter KI-Tools durch Mitarbeiter ist entscheidend.
- Mitarbeiterschulung: Die Sensibilisierung der Mitarbeiter für die sichere und ethische Nutzung von KI-Tools ist unerlässlich.
- Robuste Governance: Die Implementierung intelligenter Schutzmaßnahmen, die eine sichere und konforme KI-Nutzung ermöglichen, ohne die Produktivität zu beeinträchtigen, ist notwendig.
„Ein sicherer und strukturierter Ansatz bei der Einführung verschiedener KI-Tools versetzt Unternehmen in die Lage, das volle Potenzial von Künstlicher Intelligenz zu nutzen, ohne Kompromisse bei Cybersicherheit oder Compliance einzugehen“, so Girenas abschließend.

Be the first to comment