Apple wird iCloud-Fotos auf Kindesmissbrauch prüfen

Mit einer neuen Technologie auf dem Gerät wird Apple illegale Bilder erkennen und gleichzeitig die Privatsphäre der Nutzer berücksichtigen. [...]

Die Fotos in der iCloud sollen bald auf mögliche Missbrauchshinweise geprüft werden (c) IDG

Update: Apple hat eine Kinderschutz-Seite, die diese neue Funktion und ihre Wirkungsweise beschreibt.

TechCrunch hat bestätigt, dass Apple bald eine neue Technologie einführen wird, um Fotos, die in iCloud hochgeladen werden, auf Material mit sexuellem Missbrauch von Kindern (CSAM) zu überprüfen. Die Einführung wird im Laufe des Jahres erfolgen und ist Teil einer Reihe von Technologien, die die Nutzung der Produkte und Dienste von Apple für Kinder sicherer machen sollen.

Die meisten Cloud-Dienste scannen bereits Bilder auf Material, das gegen ihre Nutzungsbedingungen oder das Gesetz verstößt, einschließlich CSAM. Sie können dies tun, weil die Bilder zwar verschlüsselt gespeichert werden, die Unternehmen aber über den Chiffrierschlüssel verfügen. Apple verschlüsselt die Fotos bei der Übertragung und speichert sie verschlüsselt, verfügt aber über den Entschlüsselungscode, um sie bei Bedarf zu entschlüsseln – etwa um in iCloud gespeicherte Daten bei einer Vorladung vorzulegen oder um Ihre iCloud-Fotos in einem Webbrowser verfügbar zu machen.

Um die Privatsphäre der Nutzer zu schützen, setzt das Unternehmen auf eine neue Technologie namens NeuralHash, die Bilder beim Hochladen in iCloud Photos auf Übereinstimmungen mit einer bekannten Datenbank mit Bildern von Kindesmissbrauch überprüft. Die Technologie funktioniert vollständig auf Ihrem iPhone, iPad oder Mac, indem sie Fotos in eine eindeutige Zeichenfolge aus Buchstaben und Zahlen (einen Hash) umwandelt. Normalerweise würde jede geringfügige Änderung an einem Foto zu einem anderen Hashwert führen, aber Apples Technologie soll so beschaffen sein, dass kleine Änderungen (wie ein Ausschnitt) immer noch denselben Hashwert ergeben.

Diese Hashes werden auf dem Gerät mit einer Datenbank von Hashes für Bilder von sexuellem Kindesmissbrauch abgeglichen. Die Hashes können unbemerkt abgeglichen werden, ohne dass das zugrunde liegende Bild bekannt ist oder der Benutzer in irgendeiner Weise gewarnt wird. Die Ergebnisse des Abgleichs werden an Apple gesendet, sobald ein bestimmter Schwellenwert erreicht ist. Erst dann kann Apple die übereinstimmenden Bilder entschlüsseln, den Inhalt manuell überprüfen und das Konto eines Nutzers sperren. Apple meldet die Bilder dann an das National Center for Missing & Exploited Children, das sie an die Strafverfolgungsbehörden weiterleitet.

Mit anderen Worten: Es ist äußerst unwahrscheinlich, dass Apple in der Lage sein wird, sich willkürlich beliebige Bilder auf Ihrem iPhone anzusehen. Laut TechCrunch erklärt Apple, dass die Wahrscheinlichkeit eines falsch positiven Ergebnisses bei eins zu einer Billion liegt, und dass es ein Einspruchsverfahren für jeden geben wird, der glaubt, dass sein Konto versehentlich markiert wurde. Die Technologie ist nur quasi optional: Sie müssen iCloud Photos nicht verwenden, aber wenn Sie es tun, können Sie die Funktion nicht deaktivieren.

Apple hat ein Technikdokument veröffentlicht, in dem die NeuralHash-Technologie ausführlich beschrieben wird. Diese neue Technologie wird als Teil von iOS 15, iPadOS 15 und macOS Monterey diesen Herbst eingeführt.

Update: Apple hat eine Kinderschutz-Seite, die diese neue Funktion und ihre Wirkungsweise beschreibt.

*Jason Cross schreibt seit über 20 Jahren professionell über Technologie. Sein Ziel ist es, herauszufinden, wie komplizierte Technologien funktionieren, und sie so zu erklären, dass sie jeder versteht.


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*