Gefälschte Produkte? Nur KI verspricht Rettung

Das Wettrüsten hat begonnen: Fälscher nutzen künstliche Intelligenz, um täuschend echte Fälschungen zu schaffen; smarte Unternehmen setzen KI ein, um sich dagegen zu wehren. [...]

Fälscher nutzen zunehmend KI. (c) Fotolia - Vladimir Vitek
Fälscher nutzen zunehmend KI. (c) Fotolia - Vladimir Vitek

Eine halbe Billion Dollar beträgt die Summe, die die Fälscher letztes Jahr durch den Verkauf von Fake-Produkten erzielt haben. Rund 2,5 Prozent aller Waren sind gefälscht.

Die Vereinigten Staaten sind am stärksten von gefälschten Produkte betroffen: US-Marken machten im Jahr 2013 20 Prozent des weltweit verletzten geistigen Eigentums aus.

Wenn Menschen von Fälschungen hören, denken sie meist an kopierte Louis Vuitton-Handtaschen, die am Straßenrand verkauft werden. Zu den gefälschten Produkten gehören aber auch Enterprise-Produkte sowie alltägliche Konsumgüter.

Und Fälschungen können töten. Tausende Menschen sterben jedes Jahr an Fake-Arzneimittel und -Alkohol. Die Weltgesundheitsorganisation schätzt, dass 10 Prozent aller in Ländern mit niedrigem und mittlerem Einkommen verkauften Arzneimittel entweder minderwertig oder gefälscht sind.

Und das Problem wird wachsen: Die International Trademark Association (INTA) und die Internationale Handelskammer sagen, dass der Wert, der durch Fälschungen erzielt wird, bis 2022 2,3 Billionen Dollar erreichen könnte.

Fälschungen werden immer besser

Laut Vidyuth Srinivasan, CEO von Entrupy, einem Spezialisten bei der Entdeckung von Fälschungen, ist der größte und gefährlichste Trend die Anwendung von künstlicher Intelligenz, um bessere Fälschungen zu erzeugen – bessere Fake-Produkte, Fake-Geldmittel, FakeContent, Fake-Werbung, Fake-Websites und Fake-News.

Wie KI bei Fälschungen funktioniert, lässt sich am besten an Videos erklären. Deepfakes, also Videos, die das Gesicht einer Person mit dem Körper eines anderen verknüpfen, verwenden Deep-Learning, simulierte neuronale Netzwerke und große Datensätze, um überzeugende gefälschte Videos zu erstellen. Im Januar wurde eine App mit dem Namen „FakeApp“ gestartet, die es jedem Nutzer ermöglicht, auf einfache Weise Face-Swap-Videos zu erstellen.

Ähnliche Technologien werden zunehmend eingesetzt, um Luxusgüter zu fälschen. Vereinfacht gesagt: Kriminelle speisen Attribute von bestehenden Produkten in ein KI-System ein, das den Herstellungsprozess steuert. Die Ergebnisse sind erstaunlich.

KI als Rettung

Schon heute gibt es Lösungen, die Unternehmen unterstützen, Fälschungen aufzuspüren. Entrupy ist wie Red Points, Cypheme und andere Unternehmen auf die kostengünstige Identifizierung von gefälschten Produkten in großem Umfang spezialisiert. Diese Unternehmen bieten Technologien zur Analyse von Materialien, Farben, Verpackungen und anderen Attributen an.

IBM Research hat etwas entwickelt, das Crypto Anchor Verifier genannt wird. Es handelt sich dabei um einen KI-Fälschungs-Detektor, der Blockchain verwendet und auf einem Smartphone läuft. Um es zu verwenden, braucht man nur ein Bild von einem verdächtigen Produkt machen. Die App führt einen Vergleich dieses Bildes mit einer Datenbank in einem Blockchain-Hauptbuch durch, um die Echtheit zu bestimmen. Diese Datenbank ist mit Produktbildern bestückt, die von den Produktherstellern bereitgestellt werden.

Die grundlegende Idee ist, dass jedes Objekt unverwechselbare optische Muster aufweist, die durch KI identifiziert werden können. Diese Muster finden sich in der Textur, Farbe und Muster in den Materialien, die zur Herstellung der Produkte verwendet werden.

IBM sagt, dass die Technologie für alle Arten von Produkten verwendet werden könnte – von Diamanten über Bargeld bis hin zu Wein und pharmazeutischen Waren.

Fälschungen sind überall

Selbst vertrauenswürdige Quellen wie Amazon verkaufen eine große Anzahl gefälschter Waren, einschließlich jener, die von Amazon geliefert werden. Das E-Commerce-Geschäftsmodell ist prädistiniert für Fälschungen. Die Produktdetails sind öffentlich und leicht kopierbar. Und die Menge macht es fast unmöglich, alle Produkte zu überprüfen.

Der Counterfeit Report (TCR), der mit Marken zusammenarbeitet, um gefälschte Produkte zu identifizieren, behauptet, seit Mai 2016 rund 58.000 gefälschte Produkte bei Amazon gefunden zu haben. Basierend auf den Ergebnissen wurden rund 35.000 Produkte entfernt. Doch diese Organisation suchte nur nach gefälschten Versionen jener Marken, die sie repräsentiert. Es ist daher anzunehmen, dass es bei Amazon wesentlich mehr gefälschte Produkte gibt.

Amazon nutzt maschinelles Lernen gemeinsam mit der Expertise von Software-Ingenieuren, Forschern, Programm-Managern und Ermittlern für sein Brand-Registry-Programm, das nach Angaben des Unternehmens Zuwiderhandlungen um 99 Prozent reduziert. Viele Marken sind jedoch nicht Teil der Registrierung.

Der chinesische E-Commerce-Riese Alibaba hat mit seiner „Big Data Anti-Counterfeiting Alliance“ mit 20 internationalen Marken etwas Ähnliches geschaffen. Die Initiative nutzt KI, um Verräterisches in Produktlisten und Kundenbewertungen zu erkennen.

Die chinesische Regierung unterstützte sogar ein Bewertungszentrum, um das Problem der gefälschten Produkte in diesem Land anzugehen. Eine in Peking ansässige Firma hat zudem eine App namens „Smart Detective“ entwickelt, die KI zur Bewertung von Luxusgütern verwendet. Die App konzentriert sich derzeit auf Koffer und Geldbörsen und soll in Zukunft Schmuck analysieren können.

Ein Schlüsselelement für das Funktionieren dieser Systeme ist die Geheimhaltung. Die spezifischen Kriterien, die verwendet werden, um gefälschte Produkte aufzuspüren, werden streng geheim gehalten und sie ändern sich ständig, um den Fälschern keinen Wissensvorsprung zu geben.

Technologie ist nicht das Problem – Menschen sind es

Gefälschte Videos, die mit Hilfe von KI erstellt werden, sind besonders gefährlich. Sie werden Propaganda und Desinformation noch mächtiger und glaubwürdiger machen. Doch die gleichen KI-Technologien, mit denen diese gefälschten Videos erstellt werden, können auch verwendet werden, um sie zu erkennen.

Das US-Militär hat ein Programm finanziert, um herauszufinden, wie man Deepfake-Videos und andere gefälschte Inhalte erkennen kann, die mit KI erstellt wurden. Die Defense Advanced Research Projects Agency (DARPA) hat einen Wettbewerb unter Experten gestartet, um zu sehen, wer die überzeugendsten Fälschungen erstellt und wer das beste KI-Tool zur Erkennung von Fälschungen bereitstellen kann.

Das Pentagon ist da nicht allein. Forscher der Technischen Universität München bauten ein Deep-Learning-System, das automatisch Deep-Fake-Videos erkennen kann. Andere Organisationen machen ähnliche Fortschritte.

Doch selbst wenn es möglich ist, gefälschte Videos zu identifizieren, muss damit nicht unbedingt die öffentliche Meinung betroffen sein. Nehmen wir an, die russische Regierung erstellt ein gefälschtes Video und behauptet, es sei real. Die US-Regierung sagt, sie habe KI angewendet und festgestellt, dass das Video gefälscht sei. Wie bei allen Fake-News und Propaganda müssen die Zuschauer immer noch selbst entscheiden, wem sie vertrauen. Unkritische User können leicht hinters Licht geführt werden. Noch schwieriger wird es, wenn echte Videos als Fälschung bezeichnet werden.

Letztendlich wird die Öffentlichkeit zu dem Schluss kommen, dass nichts glaubwürdig ist. Damit wäre das Zeitalter der „Dezinformatsiya“ erreicht.

Ohne KI geht es nicht

Auch wenn der Fälscher-Krieg niemals beendet werden wird, können Unternehmen und Marken zumindest die Oberhand gewinnen.

Durch die Automatisierung von Fälschungssicherheitssystemen wird es möglich, Fakes in großem Maßstab zu stoppen. Aber es wird nicht ohne die Beteiligung der Unternehmen, die legale Produkte herstellen, funktionieren.

Deshalb ist es für jedes Unternehmen von entscheidender Bedeutung, dass Produkte, Content, Marken oder andere Vermögenswerte, die nachgeahmt werden können, Möglichkeiten zur bestmöglichen Nutzung von KI zur Bekämpfung von Fälschungen inkludieren.

*Mike Elgan ist Redakteur des US-Magazins Computerwelt.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*