So erkennen Internetuser Deepfakes

Fake News, betrügerische E-Mails, gefährliche Viren: Das Internet ist voller Gefahren und Falschinformationen. Immer häufiger tauchen mit künstlicher Intelligenz manipulierte Fotos und Videos auf, sogenannte Deepfakes. [...]

Cyberkriminelle setzen Deepfakes hauptsächlich ein, um die Meinung von Menschen zu beeinflussen, politische Propaganda zu verbreiten oder Personen des öffentlichen Lebens in ein schlechtes Licht zu rücken. Auch Trickbetrüger nutzen die Technologie, etwa um ihre Stimme am Telefon so zu manipulieren, dass sie wie ein Verwandter oder Bekannter ihres Opfers klingen. (c) stock.adobe.com/Crovik Media

Immer mehr Menschen nutzen Anwendungen, die auf künstliche Intelligenz setzen, um schnell und einfach Texte zu schreiben, Fotos aufzuhübschen oder einfach nur mit einem virtuellen Gesprächspartner zu chatten. Die neue Technologie birgt jedoch auch Gefahren wie sogenannte Deepfakes. „Deepfakes sind mithilfe von KI manipulierte oder erstellte Bilder, Videos oder Tondateien, die täuschend echt wirken und kaum als Fälschungen erkennbar sind“, erklärt Alina Gedde, Digitalexpertin der Versicherungsgruppe ERGO. „Daher genießen sie häufig eine hohe Glaubwürdigkeit und verbreiten sich im Netz rasend schnell.“

Eine bekannte Masche ist es, beispielsweise Prominenten Worte in den Mund zu legen, die sie nie gesagt haben. „Das kann zum Zweck von Produktwerbung geschehen. Oft sollen Personen aber auch diffamiert oder gemobbt werden, etwa durch KI-erzeugte Fotomontagen, die sie scheinbar in verfänglichen Situationen zeigen“, so Gedde.

Das Besorgniserregende: Mit entsprechenden Apps kann heute jeder schnell und einfach Deepfakes erstellen. „Es ist aber bereits strafbar, andere ohne deren Einwilligung zu fotografieren. Wer also Fotos oder Videos fälscht oder verbreitet, begibt sich juristisch auf sehr dünnes Eis“, warnt die Digitalexpertin. Sie empfiehlt Eltern, daher auch ihre Kinder für das Thema zu sensibilisieren.

Welche Gefahren Internet-Usern durch Deepfakes drohen

Cyberkriminelle setzen Deepfakes hauptsächlich ein, um die Meinung von Menschen zu beeinflussen, politische Propaganda zu verbreiten oder Personen des öffentlichen Lebens in ein schlechtes Licht zu rücken. Auch Trickbetrüger nutzen die Technologie, etwa um ihre Stimme am Telefon so zu manipulieren, dass sie wie ein Verwandter oder Bekannter ihres Opfers klingen. „Auf diese Weise versuchen sie dann, an sensible Daten wie Kontoinformationen oder Passwörter zu gelangen. Auch Betrugsmaschen wie der sogenannte Enkeltrick werden durch Deepfakes noch raffinierter“, sagt Gedde.

Deepfakes erkennen

Computer, Smartphones und Co. werden immer leistungsfähiger – und damit auch KI-Anwendungen. Fälschungen lassen sich deshalb immer schwieriger als solche entlarven. Gedde empfiehlt Internetnutzern, bei Fotos und Videos auf ungewöhnliche Krümmungen von Armen und Beinen, falsche Proportionen, seltsam fallende Schatten, unnatürliche Bewegungen und ähnliche Details zu achten. Auch menschliche Mimik und Gestik sind für moderne KI-Anwendungen noch eine Herausforderung, hinzu kommen oft Ungereimtheiten wie Bildverzerrungen, Unterschiede in der Bildschärfe und Farbgebung oder fehlende Lippensynchronität in Videos.

„Bei gefälschten Tonaufnahmen klingt die Stimme oft monoton und blechern. Auch falsche und unnatürliche Betonungen sowie ein abgehackter Sprechfluss können Hinweise auf einen Deepfake sein“, so die Digitalexpertin von ERGO. Sie empfiehlt zudem, beispielsweise verdächtige Fotos auf einem großen Bildschirm anzusehen. So lassen sich Manipulationen besser erkennen als auf einem kleinen Smartphone-Display.

Oft hilft auch schon eine einfache Internetsuche, um Deepfakes zu enttarnen. „Taucht ein scheinbar sensationelles Video auf keiner seriösen Nachrichtenseite auf, sondern nur auf zwielichtigen Social-Media-Kanälen, handelt es sich mit großer Wahrscheinlichkeit um einen Deepfake“, erklärt Gedde.

Im Web gibt es zudem zahlreiche Faktencheck-Portale, auf denen sich Nutzer über aktuelle Deepfakes informieren können. Darüber hinaus gilt wie so oft: Nicht alles glauben und Informationen stets mit einem gesunden Maß an Skepsis betrachten – vor allem im World Wide Web.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*