Tipps für die sichere Nutzung von KI

Mit Künstlicher Intelligenz arbeitende Plattformen wie ChatGPT verändern die Arbeitswelt. Ob das einen Produktivitätszuwachs für Unternehmen und mehr neue Jobs oder eine Gefahr für Millionen von Jobs bedeutet, ist noch nicht entschieden. Eine Herausforderung für die Unternehmenssicherheit ist es jedenfalls, weiß Andreas Müller von Delinea und verrät, worauf zu achten ist. [...]

Als Vice President leitet Andreas Müller die DACH-Region bei Delinea. (c) Delinea
Als Vice President leitet Andreas Müller die DACH-Region bei Delinea. (c) Delinea

Neben Begeisterung hat das vom US-Unternehmen Open-AI entwickelte KI-Tool Chat-GPT seit seiner Einführung im November 2022 auch große Skepsis ausgelöst. Vor allem das Thema Datenschutz tritt immer wieder in den Fokus der Diskussion. Insbesondere seit im Frühjahr 2023 eine Sicherheitslücke aufgedeckt wurde, die es ermöglichte, die Chatprotokolle anderer Nutzer einzusehen. Das Unternehmen reagierte jedoch prompt und hat das Problem schnell behoben.

Die italienische Datenschutzbehörde hat ChatGPT daraufhin Ende März sogar kurzfristig gesperrt, da sie neben dem beschriebenen Datenschutzvorfall auch eine mangelnde Aufklärung der Nutzer über die Art der Datenverarbeitung sowie ein illegitimes Sammeln von personenbezogenen Daten bemängelte. Eine ähnliche Niederlage musste im Juni auch Google hinnehmen. So wurde der EU-Start seines ChatGPT-Konkurrenten Bard jüngst von der europäischen Datenschutzbehörde gestoppt, nachdem es Google verpasst hatte, die notwendige Datenschutz-Folgenabschätzung an die EU-Behörden zu übermitteln.

KI-Technologien und ihre Risiken

Tatsächlich sind die Risiken, die mit der Nutzung von mit KI arbeitenden Chatbots wie ChatGPT einhergehen, vielfältig. Die Services basieren auf einem Sprachmodell, das mit Daten aus den verschiedensten Online-Quellen gefüttert wurde. Darüber hinaus werden in vielen Fällen die Fragen an die KI und die gegebenen Antworten gespeichert und als neue Trainingsdaten in das System eingespeist. Umso wichtiger ist es, dass Nutzer nur nach sorgfältigem Abwägen persönliche Daten in KI-Tools einfließen lassen. Unternehmen sollten sicherstellen, dass ihre Mitarbeitenden keine sensiblen Unternehmensdaten über das Tool weitergeben. Darüber hinaus gilt es, sich bewusst zu machen, dass kein KI-Anbieter eine hundertprozentige Genauigkeit und Zuverlässigkeit der von seinen Tools generierten Antworten garantieren kann und die Technologie auf der Grundlage der Trainingsdaten, denen sie ausgesetzt war, falsche oder verzerrte Antworten erzeugen kann und nachweislich erzeugt. Unternehmen sollten KI-erzeugte Informationen genau prüfen, bevor sie diese einsetzen.
Langfristig besteht zudem die Gefahr, dass Unternehmen von der Verfügbarkeit der KI-Tools abhängig werden, was angesichts der Tatsache, dass es sich bei ChatGPT und Co. um Drittanbieterdienste handelt, die theoretisch jederzeit eingestellt werden können, ein Problem sein könnte.
Außerdem sollten KI-Tools auch als potenzieller Einstiegspunkt von Cyberkriminellen im Auge behalten werden. Ist die API nicht ordnungsgemäß gesichert, können Hacker einen Angriff auf die Systeme des Unternehmens starten und dort beispielsweise sensible Daten abgreifen.

Tipps für einen sicheren Umgang mit KI- bzw. ML-Programmen

  • Prüfen Sie gegen: Wo immer es möglich ist, sollten die von der KI-Anwendung generierten Ergebnisse von einem Mitarbeitenden überprüft werden, bevor sie in der Praxis verwendet werden, insbesonders in sensiblen Bereichen oder auch bei der Code-Generierung.
  • Nutzen Sie Anwendungen mit Registrierung und Eingabebeschränkung: Um sicher auf die KI-Dienste zugreifen zu können, sollten sich die Nutzer idealerweise registrieren und anmelden müssen. Die Verknüpfung mit einem bestehenden Konto, z. B. einem Gmail-, LinkedIn- oder Facebook-Login, kann hier hilfreich sein, ist aber möglicherweise nicht für alle Anwendungsfälle geeignet. Und auch eine Begrenzung der Textmenge, die ein Benutzer in die Eingabeaufforderung eingeben kann, ist ein Hinweis auf Sicherheit. Denn dies trägt zur Vermeidung von Prompt Injection bei, einer Methode, bei der KIs unbemerkt zu beliebigen Aussagen bewegt werden. Gleiches gilt für die Anzahl der Ausgabemarken. Sind diese eingeschränkt, sinkt das Risiko für Missbrauch.
  • Nutzen Sie die Moderations-API: OpenAI verfügt über eine kostenlose Moderations-API, die dazu beitragen kann, die Häufigkeit unzulässiger Inhalte in Ein- und Ausgaben zu reduzieren. Alternativ kann auch ein benutzerdefiniertes System zur Filterung von Inhalten entwickelt werden, das auf bestimmte Anwendungsfälle zugeschnitten ist.
  • Führen Sie Red-Team-Tests durch, um sicherzustellen, dass KI-Anwendungen gegenüber kontradiktorischen oder schädlichen Eingaben robust sind: Dabei gilt es, die Produkte mit einem breiten Spektrum an Eingaben und Benutzerverhalten zu testen und zwar sowohl mit einer repräsentativen Auswahl an Verhaltensweisen als auch mit solchen, die den Hacking-Versuch einer Person widerspiegeln.
  • Setzen Sie auf Prompt Engineering: Das KI-Konzept des Prompt Engineerings kann dazu beitragen, das Thema und den Ton des Ausgabetextes einzuschränken. Dadurch wird die Wahrscheinlichkeit verringert, dass unerwünschte Inhalte produziert werden, selbst wenn ein Benutzer dies explizit versucht. Die Bereitstellung von zusätzlichem Kontext für das Modell (z.B. durch die Angabe einiger hochwertiger Beispiele für das gewünschte Verhalten vor der neuen Eingabe) kann es einfacher machen, die Modellausgaben in die gewünschte Richtung zu lenken.
  • Melden Sie Probleme und Bedenkenbeim KI-Anbieter und bearbeiten dessen Rückmeldungen zeitnah.

Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*