C2PA-Standard gegen Deepfakes und Desinformation im Internet

Wenn im Internet ein Video mit einem Staatspräsidenten auftaucht, in dem er den Angriff auf ein Nachbarland verkündet, dann kann niemand sicher sein, dass das Video echt ist. Unternehmen wie Adobe, Microsoft und Intel sagen mit dem Standard C2PA Fake-News den Kampf an. [...]

(c) pixabay.com

Falschmeldungen, aus dem Zusammenhang gerissene Zitate oder bewusst falsch interpretierte Daten: Nicht alles, was im Internet kursiert, stimmt auch. Während es bei so mancher News recht einfach ist, sie als Falschmeldung zu entlarven, sieht es bei sogenannten Deepfakes ganz anders aus: Der Begriff ist eine Zusammensetzung aus „Deep“ für Deep Learning und „Fake“. Wie die Antiviren-Experten von Kaspersky erklären, ist Deep Learning eine fortschrittliche, auf Künstlicher Intelligenz (KI) basierende Methode, bei der mehrere Ebenen von ML-Algorithmen (Maschinelles Lernen) eingesetzt werden, um schrittweise immer feinere Merkmale aus den Rohdaten zu ziehen.

Die Technologie ist in der Lage, aus unstrukturierten Daten zu lernen, darunter auch das menschliche Gesicht. KI kann beispielsweise Daten zu körperlichen Bewegungen erfassen. Diese Daten lassen sich dann verarbeiten, um ein sogenanntes Deepfake-Video zu erstellen. Prominentes Beispiel ist ein Video des früheren US-Präsidenten Barack Obama aus dem Jahr 2018. Darin äußert er sich – täuschend echt – abwertend über seinen Nachfolger.

Mehrere Technologie- und Medienunternehmen haben sich Anfang vergangenen Jahres zusammengetan. Das Ziel: Wieder Vertrauen in Online-Inhalte schaffen. Der Coalition for Content Provenance and Authenticity (C2PA) gehören IT- und Medien-Unternehmen an wie Adobe, BBC, Microsoft, Intel und Twitter. Die Mitgliedsorganisationen arbeiten gemeinsam daran, für gängige Content-Formate wie Bilder, Videos, Audio den Herausgebern, Erstellern und Verbrauchern die Möglichkeit zu geben, den Ursprung und die Entstehung dieser Inhalte nachzuvollziehen.

Ziel der Initiative ist die Bekämpfung von Falschinformationen im digitalen Kontext. „C2PA ist ein wichtiger Schritt hin zu einem starken, branchenweit gültigen Standard anhand dessen nicht authentische Online-Inhalte erkannt und eliminiert werden können“, so Adobe. Dabei soll der offene C2PA-Standard im gesamten Content-Ökosystem – von Chip-Herstellern und Nachrichtenorganisationen bis hin zu Software- und Plattformunternehmen – Anwendung finden und so das Vertrauen in digitale Inhalte stärken.

Wie geht es weiter?

Die Coalition for Content Provenance and Authenticity hat nun die Version 1.0 ihrer technischen Spezifikationen veröffentlicht. „Die heutige Ankündigung ist ein wichtiger Schritt, um der zunehmenden Desinformation entgegenzuwirken und das Vertrauen im Internet zu stärken“, erklärte Leonard Rosenthol, Vorsitzender der C2PA Technical Working Group und Senior Principal Scientist bei Adobe.

Nun liegt es an den Unternehmen, dass sie C2PA unterstützen und so Fake-News und anderen falschen Inhalten wie Deepfake-Videos den Kampf anzusagen. Wie die Webseite Medium.com berichtet, arbeitet zum Beispiel der Bayerische Rundfunk am Projekt „Origin“ der BBC mit, welches Impulsgeber für die Initiative C2PA war. Ziel sei es, für Nachrichten ein Zero Trust News Network aufzubauen, bei dem nur etwas als vertrauenswürdig gilt, wenn dessen Herkunft nachgewiesen werden könne.

*Konstantin Pfliegl ist Redakteur bei der Zeitschrift com! professional. Er hat über zwei Jahrzehnte Erfahrung als Journalist für verschiedene Print- und Online-Medien und arbeitete unter anderem für die Fachpublikationen tecChannel und Internet Professionell.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*