„RuReal“ erklärt Fälschungen im Web den Krieg

Die App "RuReal" warnt Nutzer vor Produkten, Dating-Profilen und mehr, die zu gut erscheinen, um wahr zu sein. [...]

Die Anwendung, die sowohl für iOS- als auch Android-Geräte zu haben ist, scannt rund 14 Mrd. Bilder. Wird das Foto von der sympathischen jungen Dame oder dem günstigen Auto in bestem Zustand irgendwo anders im Netz gefunden, schlägt die Anwendung Alarm.

„Die App kann ihren Nutzern auf unterschiedliche Arten und Weisen helfen“, meint Simon Gojcaj von U.S. Publications, Inc, jener Firma, die die App veröffentlicht hat. „Sie kann Mobbing und Cyber-Stalking verhindern und herausfinden, ob ein Produkt eine Fälschung ist oder nicht. Im Grunde genommen ist es so, dass wenn etwas zu gut aussieht, um wahr zu sein, wahrscheinlich nicht wahr ist.“

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Wenn User skeptisch sind, ob das, was ihnen angeboten ist, tatsächlich echt ist, laden sie einfach das Bild herunter. Dieses wird dann mit Milliarden anderer Bilder verglichen – wird RuReal fündig, zeigt sie, wo das Bild noch gefunden wurde. Das kann auch nützlich sein, um nachzuverfolgen, wie sich die eigenen Werke im Netz verbreiten. Die ersten 20 Suchanfragen sind gratis, danach wird der Dienst kostenpflichtig.

Gojcaj testete die App an einem Foto eines Mercedes Benz, Baujahr 2004, der auf Craigslist, einem Netzwerk für Kleinanzeigen, zum Verkauf angeboten wurde. Das Auto schien in bestem Zustand zu sein – und der Preis viel zu gut. RuReal verglich das Foto mit jenen Bildern in der Datenbank und erkannte es als Fälschung – das Auto war bearbeitet worden und stammte von einer anderen Seite. (pte)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*