Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. [...]
Kaspersky hat Richtlinien für eine sichere KI-Entwicklung erarbeitet, um Unternehmen dabei zu unterstützen, die Cybersicherheitsrisiken der bereits allgegenwärtigen Technologie zu adressieren. Die „Guidelines for Secure Development and Deployment of AI Systems“ – vorgestellt diese Woche auf dem United Nations Internet Governance Forum (IGF) 2024 in Riad, Saudi-Arabien – wurden laut Kaspersky in Zusammenarbeit mit akademischen Experten entwickelt, um die wachsende Komplexität der Cybersicherheitsherausforderungen im Zusammenhang mit KI-gesteuerten Systemen zu adressieren.
Die „Guidelines for Secure Development and Deployment of AI Systems“ richten sich an Entwickler, Administratoren und KI-DevOps-Teams und enthalten detaillierte, praxisorientierte Empfehlungen, um technische Sicherheitslücken zu schließen und Betriebsrisiken zu minimieren. Die Richtlinien sind Kaspersky zufolge besonders für Organisationen relevant, die auf KI-Modelle von Drittanbietern und Cloud-basierte Systeme angewiesen sind, da Schwachstellen in diesen Bereichen zu erheblichen Datenlecks und Reputationsschäden führen können.
Verbesserung der Sicherheit von KI-Systemen
Durch die Integration von Security-by-Design-Prinzipien unterstützen die Richtlinienen Organisationen dabei, die KI-Bereitstellung an Standards wie ESG (Environmental, Social Governance) und internationale Compliance-Anforderungen anzupassen. Die Richtlinie behandelt zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. Die Richtlinien adressieren die folgenden Prinzipien zur Verbesserung der Sicherheit von KI-Systemen:
- Sensibilisierung und Schulungen im Bereich Cybersicherheit
- Threat Modelling und Risikobewertung
- Infrastruktursicherheit (Cloud)
- Lieferketten- und Datensicherheit
- Tests und Validierung
- Schutz vor ML-spezifischen Angriffen
- Regelmäßige Sicherheitsupdates und Wartung
- Einhaltung internationaler Standards
„Angesichts der zunehmenden Verbreitung von KI ist die Gewährleistung ihrer Sicherheit nicht optional, sondern unerlässlich. Beim IGF 2024 tragen wir zu einem Dialog mehrerer Interessengruppen bei, um Standards zu definieren, die Innovationen schützen und zur Bekämpfung neuer Cyberbedrohungen beitragen“, kommentiert Yuliya Shlychkova, Vice President of Public Affairs bei Kaspersky, die Vorstellung der „Guidelines for Secure Development and Deployment of AI Systems“.
Be the first to comment