Wasserzeichen für Machine Learning

Die Methode von Facebook markiert Bilder aus Datensets, um Missbrauch und Fehler aufzudecken. [...]

KI-Methode markiert Bilder in Datensets. (c) pixabay

Forscher der Abteilung für künstliche Intelligenz von Facebook haben eine Methode namens »Radioaktive Daten« entwickelt, um Bilder aus Datensets, die für Machine Learning verwendet werden, wie bei einem Wasserzeichen zu markieren. Dadurch soll es möglich sein, in neuralen Netzwerken bestimmte Lernmethoden immer wieder zu erkennen. Diese Methode soll dabei helfen , Fehler und Missbrauch bei der Datenanalyse aufzudecken.

Facebook bezeichnet die markierten Bilder als »radioaktive Daten«, weil die Entwickler damit auf Medikamente mit ungefährlichen Mengen von Radioaktivität anspielen, die u.a. Röntgenuntersuchungen genauer machen. In den Datensets befindet sich ein Bild, das mit einem für das menschliche Auge unsichtbaren Filter bearbeitet wurde. Die Markierung zeigt sich als leichtes Flimmern, das über das Bild gelegt wird und nur von neuralen Netzwerken erkannt wird. Das auf diese Art gezeichnete Bild wird als Original getarnt im Datenset eingeschleust. Benutzt eine KI unerlaubterweise ein bestehendes Datenset für sein Lernmodell, erkennt das Netzwerk dies anhand der Markierung sofort.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*