Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. [...]

Die Richtlinien sind Kaspersky zufolge besonders für Organisationen relevant, die auf KI-Modelle von Drittanbietern und Cloud-basierte Systeme angewiesen sind, da Schwachstellen in diesen Bereichen zu erheblichen Datenlecks und Reputationsschäden führen können. (c) stock.adobe.com/VRVIRUS

Kaspersky hat Richtlinien für eine sichere KI-Entwicklung erarbeitet, um Unternehmen dabei zu unterstützen, die Cybersicherheitsrisiken der bereits allgegenwärtigen Technologie zu adressieren. Die „Guidelines for Secure Development and Deployment of AI Systems“ – vorgestellt diese Woche auf dem United Nations Internet Governance Forum (IGF) 2024 in Riad, Saudi-Arabien – wurden laut Kaspersky in Zusammenarbeit mit akademischen Experten entwickelt, um die wachsende Komplexität der Cybersicherheitsherausforderungen im Zusammenhang mit KI-gesteuerten Systemen zu adressieren.

Die „Guidelines for Secure Development and Deployment of AI Systems“ richten sich an Entwickler, Administratoren und KI-DevOps-Teams und enthalten detaillierte, praxisorientierte Empfehlungen, um technische Sicherheitslücken zu schließen und Betriebsrisiken zu minimieren. Die Richtlinien sind Kaspersky zufolge besonders für Organisationen relevant, die auf KI-Modelle von Drittanbietern und Cloud-basierte Systeme angewiesen sind, da Schwachstellen in diesen Bereichen zu erheblichen Datenlecks und Reputationsschäden führen können.

Verbesserung der Sicherheit von KI-Systemen

Durch die Integration von Security-by-Design-Prinzipien unterstützen die Richtlinienen Organisationen dabei, die KI-Bereitstellung an Standards wie ESG (Environmental, Social Governance) und internationale Compliance-Anforderungen anzupassen. Die Richtlinie behandelt zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. Die Richtlinien adressieren die folgenden Prinzipien zur Verbesserung der Sicherheit von KI-Systemen:

  • Sensibilisierung und Schulungen im Bereich Cybersicherheit
  • Threat Modelling und Risikobewertung
  • Infrastruktursicherheit (Cloud)
  • Lieferketten- und Datensicherheit
  • Tests und Validierung
  • Schutz vor ML-spezifischen Angriffen
  • Regelmäßige Sicherheitsupdates und Wartung
  • Einhaltung internationaler Standards

„Angesichts der zunehmenden Verbreitung von KI ist die Gewährleistung ihrer Sicherheit nicht optional, sondern unerlässlich. Beim IGF 2024 tragen wir zu einem Dialog mehrerer Interessengruppen bei, um Standards zu definieren, die Innovationen schützen und zur Bekämpfung neuer Cyberbedrohungen beitragen“, kommentiert Yuliya Shlychkova, Vice President of Public Affairs bei Kaspersky, die Vorstellung der „Guidelines for Secure Development and Deployment of AI Systems“.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*