Mit einer neuen Technologie auf dem Gerät wird Apple illegale Bilder erkennen und gleichzeitig die Privatsphäre der Nutzer berücksichtigen. [...]
Update: Apple hat eine Kinderschutz-Seite, die diese neue Funktion und ihre Wirkungsweise beschreibt.
TechCrunch hat bestätigt, dass Apple bald eine neue Technologie einführen wird, um Fotos, die in iCloud hochgeladen werden, auf Material mit sexuellem Missbrauch von Kindern (CSAM) zu überprüfen. Die Einführung wird im Laufe des Jahres erfolgen und ist Teil einer Reihe von Technologien, die die Nutzung der Produkte und Dienste von Apple für Kinder sicherer machen sollen.
Die meisten Cloud-Dienste scannen bereits Bilder auf Material, das gegen ihre Nutzungsbedingungen oder das Gesetz verstößt, einschließlich CSAM. Sie können dies tun, weil die Bilder zwar verschlüsselt gespeichert werden, die Unternehmen aber über den Chiffrierschlüssel verfügen. Apple verschlüsselt die Fotos bei der Übertragung und speichert sie verschlüsselt, verfügt aber über den Entschlüsselungscode, um sie bei Bedarf zu entschlüsseln – etwa um in iCloud gespeicherte Daten bei einer Vorladung vorzulegen oder um Ihre iCloud-Fotos in einem Webbrowser verfügbar zu machen.
Um die Privatsphäre der Nutzer zu schützen, setzt das Unternehmen auf eine neue Technologie namens NeuralHash, die Bilder beim Hochladen in iCloud Photos auf Übereinstimmungen mit einer bekannten Datenbank mit Bildern von Kindesmissbrauch überprüft. Die Technologie funktioniert vollständig auf Ihrem iPhone, iPad oder Mac, indem sie Fotos in eine eindeutige Zeichenfolge aus Buchstaben und Zahlen (einen Hash) umwandelt. Normalerweise würde jede geringfügige Änderung an einem Foto zu einem anderen Hashwert führen, aber Apples Technologie soll so beschaffen sein, dass kleine Änderungen (wie ein Ausschnitt) immer noch denselben Hashwert ergeben.
Diese Hashes werden auf dem Gerät mit einer Datenbank von Hashes für Bilder von sexuellem Kindesmissbrauch abgeglichen. Die Hashes können unbemerkt abgeglichen werden, ohne dass das zugrunde liegende Bild bekannt ist oder der Benutzer in irgendeiner Weise gewarnt wird. Die Ergebnisse des Abgleichs werden an Apple gesendet, sobald ein bestimmter Schwellenwert erreicht ist. Erst dann kann Apple die übereinstimmenden Bilder entschlüsseln, den Inhalt manuell überprüfen und das Konto eines Nutzers sperren. Apple meldet die Bilder dann an das National Center for Missing & Exploited Children, das sie an die Strafverfolgungsbehörden weiterleitet.
Mit anderen Worten: Es ist äußerst unwahrscheinlich, dass Apple in der Lage sein wird, sich willkürlich beliebige Bilder auf Ihrem iPhone anzusehen. Laut TechCrunch erklärt Apple, dass die Wahrscheinlichkeit eines falsch positiven Ergebnisses bei eins zu einer Billion liegt, und dass es ein Einspruchsverfahren für jeden geben wird, der glaubt, dass sein Konto versehentlich markiert wurde. Die Technologie ist nur quasi optional: Sie müssen iCloud Photos nicht verwenden, aber wenn Sie es tun, können Sie die Funktion nicht deaktivieren.
Apple hat ein Technikdokument veröffentlicht, in dem die NeuralHash-Technologie ausführlich beschrieben wird. Diese neue Technologie wird als Teil von iOS 15, iPadOS 15 und macOS Monterey diesen Herbst eingeführt.
Update: Apple hat eine Kinderschutz-Seite, die diese neue Funktion und ihre Wirkungsweise beschreibt.
*Jason Cross schreibt seit über 20 Jahren professionell über Technologie. Sein Ziel ist es, herauszufinden, wie komplizierte Technologien funktionieren, und sie so zu erklären, dass sie jeder versteht.
Be the first to comment