Apple wird iCloud-Fotos auf Kindesmissbrauch prüfen

Mit einer neuen Technologie auf dem Gerät wird Apple illegale Bilder erkennen und gleichzeitig die Privatsphäre der Nutzer berücksichtigen. [...]

Die Fotos in der iCloud sollen bald auf mögliche Missbrauchshinweise geprüft werden (c) IDG

Update: Apple hat eine Kinderschutz-Seite, die diese neue Funktion und ihre Wirkungsweise beschreibt.

TechCrunch hat bestätigt, dass Apple bald eine neue Technologie einführen wird, um Fotos, die in iCloud hochgeladen werden, auf Material mit sexuellem Missbrauch von Kindern (CSAM) zu überprüfen. Die Einführung wird im Laufe des Jahres erfolgen und ist Teil einer Reihe von Technologien, die die Nutzung der Produkte und Dienste von Apple für Kinder sicherer machen sollen.

Die meisten Cloud-Dienste scannen bereits Bilder auf Material, das gegen ihre Nutzungsbedingungen oder das Gesetz verstößt, einschließlich CSAM. Sie können dies tun, weil die Bilder zwar verschlüsselt gespeichert werden, die Unternehmen aber über den Chiffrierschlüssel verfügen. Apple verschlüsselt die Fotos bei der Übertragung und speichert sie verschlüsselt, verfügt aber über den Entschlüsselungscode, um sie bei Bedarf zu entschlüsseln – etwa um in iCloud gespeicherte Daten bei einer Vorladung vorzulegen oder um Ihre iCloud-Fotos in einem Webbrowser verfügbar zu machen.

Um die Privatsphäre der Nutzer zu schützen, setzt das Unternehmen auf eine neue Technologie namens NeuralHash, die Bilder beim Hochladen in iCloud Photos auf Übereinstimmungen mit einer bekannten Datenbank mit Bildern von Kindesmissbrauch überprüft. Die Technologie funktioniert vollständig auf Ihrem iPhone, iPad oder Mac, indem sie Fotos in eine eindeutige Zeichenfolge aus Buchstaben und Zahlen (einen Hash) umwandelt. Normalerweise würde jede geringfügige Änderung an einem Foto zu einem anderen Hashwert führen, aber Apples Technologie soll so beschaffen sein, dass kleine Änderungen (wie ein Ausschnitt) immer noch denselben Hashwert ergeben.

Diese Hashes werden auf dem Gerät mit einer Datenbank von Hashes für Bilder von sexuellem Kindesmissbrauch abgeglichen. Die Hashes können unbemerkt abgeglichen werden, ohne dass das zugrunde liegende Bild bekannt ist oder der Benutzer in irgendeiner Weise gewarnt wird. Die Ergebnisse des Abgleichs werden an Apple gesendet, sobald ein bestimmter Schwellenwert erreicht ist. Erst dann kann Apple die übereinstimmenden Bilder entschlüsseln, den Inhalt manuell überprüfen und das Konto eines Nutzers sperren. Apple meldet die Bilder dann an das National Center for Missing & Exploited Children, das sie an die Strafverfolgungsbehörden weiterleitet.

Mit anderen Worten: Es ist äußerst unwahrscheinlich, dass Apple in der Lage sein wird, sich willkürlich beliebige Bilder auf Ihrem iPhone anzusehen. Laut TechCrunch erklärt Apple, dass die Wahrscheinlichkeit eines falsch positiven Ergebnisses bei eins zu einer Billion liegt, und dass es ein Einspruchsverfahren für jeden geben wird, der glaubt, dass sein Konto versehentlich markiert wurde. Die Technologie ist nur quasi optional: Sie müssen iCloud Photos nicht verwenden, aber wenn Sie es tun, können Sie die Funktion nicht deaktivieren.

Apple hat ein Technikdokument veröffentlicht, in dem die NeuralHash-Technologie ausführlich beschrieben wird. Diese neue Technologie wird als Teil von iOS 15, iPadOS 15 und macOS Monterey diesen Herbst eingeführt.

Update: Apple hat eine Kinderschutz-Seite, die diese neue Funktion und ihre Wirkungsweise beschreibt.

*Jason Cross schreibt seit über 20 Jahren professionell über Technologie. Sein Ziel ist es, herauszufinden, wie komplizierte Technologien funktionieren, und sie so zu erklären, dass sie jeder versteht.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*