I-Pic: Smarte Software verpixelt Unbeteiligte

Eien Lösung von Max-Planck-Forschern lässt nur Gesichter von Personen scharf, die das auch wollen. [...]

Gesichter werden erkannt und bei Bedarf gepixelt.(c) youtube.co,

Forscher vom Max-Planck-Institut für Software-Systeme haben mit „I-Pic“ eine neue Software entwickelt, die verhindert, dass Menschen als Unbeteiligte auf Fotos in anderer Leutes Facebook-Auftritt erscheinen. Der smarte Algorithmus verpixelt Gesichter unbeteiligter Personen auf Bildern und macht sie damit unkenntlich. Die Gesichter von absichtlich abgelichteten Personen werden aber scharf darstellt.

Privatsphäre sicher bewahren

„Was das Fotografieren angeht, sind viele Menschen heute um ihre Privatsphäre besorgt. Bevor wir mit der Entwicklung von I-Pic anfingen, haben wir eine eigene Umfrage gestartet und zum Beispiel herausgefunden, dass es unter anderem sehr auf die Situation ankommt: Als besonders unangenehm empfinden es Leute zum Beispiel, wenn sie im Krankenhaus, beim Sport oder am Strand abgelichtet werden“, sagt Software-Entwickler Paarijaat Aditya.

Weil verschiedene Menschen in der gleichen Situation unterschiedliche Bedürfnisse an das Recht am eigenen Bild haben und auch die Ansprüche eines Einzelnen sehr von der Situation abhängen, war klar, dass I-Pic unbedingt in der Lage sein sollte, die Wünsche einzelner Personen je nach Situation zu berücksichtigen.

Bluetooth-Signale empfangen

Derzeit existiert I-Pic als Prototyp. In der Software stellt jeder Nutzer zunächst seine persönliche Präferenz ein: ob er in verschiedenen Situationen oder an verschiedenen Orten von Fremden fotografiert werden will oder nicht. Diese Information sendet jedes mit I-Pic ausgestattete Telefon permanent aus. Das Smartphone des Fotografen erhält damit über Bluetooth von allen Smartphones in der Nähe die Information, welche Person damit einverstanden ist, dass sie auf dem soeben geschossenen Foto zu erkennen ist und welche nicht.

Das Smartphone erhält laut den Forschern auch die Bluetooth-Signale von Personen, die nicht im Bild zu sehen sind – etwa von Unbeteiligten, die etwas abseits stehen. Das Smartphone des Fotografen muss also zuordnen können, welches Bluetooth-Signal zu welcher Person gehört beziehungsweise, ob es von den Personen stammt, die auf dem Bild zu sehen sind.

Bevor I-Pic seinen Dienst tun kann, wird es zunächst mit Porträtfotos des Smartphone-Besitzers gefüttert. Schon nach etwa zehn Fotos hat I-Pic das Gesicht seines Besitzers kennengelernt und die Charakteristika des Gesichts abgespeichert. Alle Handys, die mit I-Pic ausgestattet sind, senden permanent die Gesichtsinformation in die Umgebung aus – auch zum Smartphone einer Person, die in Bluetooth-Reichweite vielleicht gerade ein Foto macht. So kann das Smartphone des Fotografen die Gesichter auf dem gerade geschossenen Bild mit den Gesichtsinformationen der Menschen in der Umgebung abgleichen.

Präferenzen berücksichtigen

Zusätzlich mit den Gesichtsdaten erhält das Smartphone des Fotografen die Präferenzen der beteiligten Personen – „Will zu erkennen sein/Will nicht zu erkennen sein“ – und kann dann die entsprechenden Gesichter unkenntlich machen. „Allerdings ist der Austausch persönlicher Daten wie zum Bespiel von Gesichtsinformationen zwischen Smartphones in Hinblick auf den Datenschutz ausgesprochen kritisch“, sagt Peter Druschel, Direktor am Max-Planck-Institut für Software-Systeme. Deshalb haben die Forscher I-Pic zusätzlich mit anspruchsvoller Verschlüsselungstechnik ausgestattet.

Dann gleicht I-Pic die Gesichter im Foto mit den Gesichtsinformationen ab, die das Smartphone des Fotografen per Bluetooth empfangen hat. Der Clou: Der Abgleich findet zwischen den verschlüsselten Dateien statt. Die Bildinformation liegt also zu keiner Zeit offen. „Das klingt eigenartig, aber tatsächlich ist es möglich, zwei verschlüsselte Dateien miteinander zu verarbeiten“, ergänzt Wissenschaftlerin Rijurekha Sen. „Wir nennen das eine homomorphe Verschlüsselung. Man kann damit feststellen, ob zwei Bilder gleich sind, ohne die Bilder als solche preisgeben zu müssen.“


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*