45 Prozent fürchten, gefälschte Videos nicht erkennen zu können

Die Mehrheit der von nextMedia.Hamburg befragten Personen fordert eine Kennzeichnungspflicht von manipulierten Inhalten. [...]

Fast jeder Zweite hat inzwischen Angst, Fälschungen nicht mehr erkennen zu können, weil Deepfake-Algorithmen Gesichtszüge und Stimmen heutzutage nahezu perfekt imitieren. (c) Unsplash
Fast jeder Zweite hat inzwischen Angst, Fälschungen nicht mehr erkennen zu können, weil Deepfake-Algorithmen Gesichtszüge und Stimmen heutzutage nahezu perfekt imitieren. (c) Unsplash

Ein kurzes Tippen auf das Smartphone – und schon lächelt das eigene Gesicht von Supermans Körper oder aus dem neuen Beyoncé-Musikvideo. Möglich machen dies sogenannte Deepfake-Anwendungen wie „Reface“ oder „Faceswap“, die mit Hilfe Künstlicher Intelligenz (KI) authentisch wirkende Video-Illusionen erzeugen und vor allem in sozialen Netzwerken beliebt sind. Eine neue repräsentative Umfrage von nextMedia.Hamburg zeigt jedoch: Vielen Menschen in Deutschland bereiten die automatisierten Manipulations-Möglichkeiten von Video, Bild oder Ton durch KI Sorgen. Knapp drei Viertel (71,5 Prozent) der Befragten sehen in Deepfakes eine Gefahr für die Glaubwürdigkeit der Medien. 58,8 Prozent der Umfrage-Teilnehmer fürchten, dass sie für kriminelle Zwecke missbraucht werden.

Denn was bei den lustigen Deepfake-Apps ein großer Spaß ist, kann bei bewussten Täuschungen und manipulierten Nachrichten schnell zum Problem werden: Etwa wenn Identitäten gestohlen oder Politikerinnen und Politikern Worte in den Mund gelegt werden, die sie nie gesagt haben. Fast jeder Zweite hat inzwischen Angst, Fälschungen nicht mehr erkennen zu können, weil Deepfake-Algorithmen Gesichtszüge und Stimmen heutzutage nahezu perfekt imitieren. 39,1 Prozent der Befragten zweifeln bereits an der Echtheit mancher Inhalte.

„Bis vor einigen Jahren galten Videos und Tonaufnahmen in der Regel als Belege für Realität. Durch KI-generierte Deepfake-Videos ist es für Konsumentinnen und Konsumenten schwieriger geworden, die grundsätzliche Echtheit von Informationen zu bewerten“, so Nina Klaß, Leiterin von nextMedia.Hamburg. „Viele der Deepfakes, die uns heute in den sozialen Medien begegnen, werden kreativ und für Unterhaltungszwecke entwickelt, aber natürlich gibt es da auch negative Ausnahmen, die vor allem der Täuschung der Öffentlichkeit und der bewussten Verzerrung von Fakten dienen. Deswegen gilt es, Aufklärung darüber zu betreiben, was technisch bereits alles möglich ist und im zweiten Schritt eine Kennzeichnungspflicht von Deepfake-Inhalten einzuführen.“

In der Umfrage von nextMedia.Hamburg gaben rund zwei von drei Teilnehmern zu, nicht genug über Deepfakes zu wissen, um sie einem Freund oder Bekannten erklären zu können. Von denjenigen, die die Technologie verstanden haben, sprach sich eine klare Mehrheit (58,1 Prozent) für eine Deepfake-Kennzeichnungspflicht aus.

Künstliche Intelligenz: Eine Technologie – viele Hoffnungen

Unabhängig vom Thema Deepfakes knüpfen die Menschen in Deutschland überwiegend Hoffnungen an Künstliche Intelligenz als Zukunftstechnologie. Viele glauben, dass KI ihr Leben einfacher (39,4 Prozent) und sicherer (25,3 Prozent) macht. Und jeweils rund jeder Dritte hofft, dass sich dank KI die Effizienz der eigenen Arbeit erhöht (34,7 Prozent) und Zeit gespart wird (32,2 Prozent). Aber auch Skeptiker gibt es: 34,6 Prozent der Befragten versprechen sich durch KI nichts von alledem.


Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*