Apple wird iCloud-Fotos auf Kindesmissbrauch prüfen

Mit einer neuen Technologie auf dem Gerät wird Apple illegale Bilder erkennen und gleichzeitig die Privatsphäre der Nutzer berücksichtigen. [...]

Die Fotos in der iCloud sollen bald auf mögliche Missbrauchshinweise geprüft werden (c) IDG

Update: Apple hat eine Kinderschutz-Seite, die diese neue Funktion und ihre Wirkungsweise beschreibt.

TechCrunch hat bestätigt, dass Apple bald eine neue Technologie einführen wird, um Fotos, die in iCloud hochgeladen werden, auf Material mit sexuellem Missbrauch von Kindern (CSAM) zu überprüfen. Die Einführung wird im Laufe des Jahres erfolgen und ist Teil einer Reihe von Technologien, die die Nutzung der Produkte und Dienste von Apple für Kinder sicherer machen sollen.

Die meisten Cloud-Dienste scannen bereits Bilder auf Material, das gegen ihre Nutzungsbedingungen oder das Gesetz verstößt, einschließlich CSAM. Sie können dies tun, weil die Bilder zwar verschlüsselt gespeichert werden, die Unternehmen aber über den Chiffrierschlüssel verfügen. Apple verschlüsselt die Fotos bei der Übertragung und speichert sie verschlüsselt, verfügt aber über den Entschlüsselungscode, um sie bei Bedarf zu entschlüsseln – etwa um in iCloud gespeicherte Daten bei einer Vorladung vorzulegen oder um Ihre iCloud-Fotos in einem Webbrowser verfügbar zu machen.

Um die Privatsphäre der Nutzer zu schützen, setzt das Unternehmen auf eine neue Technologie namens NeuralHash, die Bilder beim Hochladen in iCloud Photos auf Übereinstimmungen mit einer bekannten Datenbank mit Bildern von Kindesmissbrauch überprüft. Die Technologie funktioniert vollständig auf Ihrem iPhone, iPad oder Mac, indem sie Fotos in eine eindeutige Zeichenfolge aus Buchstaben und Zahlen (einen Hash) umwandelt. Normalerweise würde jede geringfügige Änderung an einem Foto zu einem anderen Hashwert führen, aber Apples Technologie soll so beschaffen sein, dass kleine Änderungen (wie ein Ausschnitt) immer noch denselben Hashwert ergeben.

Diese Hashes werden auf dem Gerät mit einer Datenbank von Hashes für Bilder von sexuellem Kindesmissbrauch abgeglichen. Die Hashes können unbemerkt abgeglichen werden, ohne dass das zugrunde liegende Bild bekannt ist oder der Benutzer in irgendeiner Weise gewarnt wird. Die Ergebnisse des Abgleichs werden an Apple gesendet, sobald ein bestimmter Schwellenwert erreicht ist. Erst dann kann Apple die übereinstimmenden Bilder entschlüsseln, den Inhalt manuell überprüfen und das Konto eines Nutzers sperren. Apple meldet die Bilder dann an das National Center for Missing & Exploited Children, das sie an die Strafverfolgungsbehörden weiterleitet.

Mit anderen Worten: Es ist äußerst unwahrscheinlich, dass Apple in der Lage sein wird, sich willkürlich beliebige Bilder auf Ihrem iPhone anzusehen. Laut TechCrunch erklärt Apple, dass die Wahrscheinlichkeit eines falsch positiven Ergebnisses bei eins zu einer Billion liegt, und dass es ein Einspruchsverfahren für jeden geben wird, der glaubt, dass sein Konto versehentlich markiert wurde. Die Technologie ist nur quasi optional: Sie müssen iCloud Photos nicht verwenden, aber wenn Sie es tun, können Sie die Funktion nicht deaktivieren.

Apple hat ein Technikdokument veröffentlicht, in dem die NeuralHash-Technologie ausführlich beschrieben wird. Diese neue Technologie wird als Teil von iOS 15, iPadOS 15 und macOS Monterey diesen Herbst eingeführt.

Update: Apple hat eine Kinderschutz-Seite, die diese neue Funktion und ihre Wirkungsweise beschreibt.

*Jason Cross schreibt seit über 20 Jahren professionell über Technologie. Sein Ziel ist es, herauszufinden, wie komplizierte Technologien funktionieren, und sie so zu erklären, dass sie jeder versteht.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*