Wenn im Internet ein Video mit einem Staatspräsidenten auftaucht, in dem er den Angriff auf ein Nachbarland verkündet, dann kann niemand sicher sein, dass das Video echt ist. Unternehmen wie Adobe, Microsoft und Intel sagen mit dem Standard C2PA Fake-News den Kampf an. [...]
Falschmeldungen, aus dem Zusammenhang gerissene Zitate oder bewusst falsch interpretierte Daten: Nicht alles, was im Internet kursiert, stimmt auch. Während es bei so mancher News recht einfach ist, sie als Falschmeldung zu entlarven, sieht es bei sogenannten Deepfakes ganz anders aus: Der Begriff ist eine Zusammensetzung aus „Deep“ für Deep Learning und „Fake“. Wie die Antiviren-Experten von Kaspersky erklären, ist Deep Learning eine fortschrittliche, auf Künstlicher Intelligenz (KI) basierende Methode, bei der mehrere Ebenen von ML-Algorithmen (Maschinelles Lernen) eingesetzt werden, um schrittweise immer feinere Merkmale aus den Rohdaten zu ziehen.
Die Technologie ist in der Lage, aus unstrukturierten Daten zu lernen, darunter auch das menschliche Gesicht. KI kann beispielsweise Daten zu körperlichen Bewegungen erfassen. Diese Daten lassen sich dann verarbeiten, um ein sogenanntes Deepfake-Video zu erstellen. Prominentes Beispiel ist ein Video des früheren US-Präsidenten Barack Obama aus dem Jahr 2018. Darin äußert er sich – täuschend echt – abwertend über seinen Nachfolger.
Mehrere Technologie- und Medienunternehmen haben sich Anfang vergangenen Jahres zusammengetan. Das Ziel: Wieder Vertrauen in Online-Inhalte schaffen. Der Coalition for Content Provenance and Authenticity (C2PA) gehören IT- und Medien-Unternehmen an wie Adobe, BBC, Microsoft, Intel und Twitter. Die Mitgliedsorganisationen arbeiten gemeinsam daran, für gängige Content-Formate wie Bilder, Videos, Audio den Herausgebern, Erstellern und Verbrauchern die Möglichkeit zu geben, den Ursprung und die Entstehung dieser Inhalte nachzuvollziehen.
Ziel der Initiative ist die Bekämpfung von Falschinformationen im digitalen Kontext. „C2PA ist ein wichtiger Schritt hin zu einem starken, branchenweit gültigen Standard anhand dessen nicht authentische Online-Inhalte erkannt und eliminiert werden können“, so Adobe. Dabei soll der offene C2PA-Standard im gesamten Content-Ökosystem – von Chip-Herstellern und Nachrichtenorganisationen bis hin zu Software- und Plattformunternehmen – Anwendung finden und so das Vertrauen in digitale Inhalte stärken.
Wie geht es weiter?
Die Coalition for Content Provenance and Authenticity hat nun die Version 1.0 ihrer technischen Spezifikationen veröffentlicht. „Die heutige Ankündigung ist ein wichtiger Schritt, um der zunehmenden Desinformation entgegenzuwirken und das Vertrauen im Internet zu stärken“, erklärte Leonard Rosenthol, Vorsitzender der C2PA Technical Working Group und Senior Principal Scientist bei Adobe.
Nun liegt es an den Unternehmen, dass sie C2PA unterstützen und so Fake-News und anderen falschen Inhalten wie Deepfake-Videos den Kampf anzusagen. Wie die Webseite Medium.com berichtet, arbeitet zum Beispiel der Bayerische Rundfunk am Projekt „Origin“ der BBC mit, welches Impulsgeber für die Initiative C2PA war. Ziel sei es, für Nachrichten ein Zero Trust News Network aufzubauen, bei dem nur etwas als vertrauenswürdig gilt, wenn dessen Herkunft nachgewiesen werden könne.
*Konstantin Pfliegl ist Redakteur bei der Zeitschrift com! professional. Er hat über zwei Jahrzehnte Erfahrung als Journalist für verschiedene Print- und Online-Medien und arbeitete unter anderem für die Fachpublikationen tecChannel und Internet Professionell.
Be the first to comment