Studie: Deep Fakes besser als die Realität

Deep Fakes werden kaum noch als solche erkannt. Zu diesem Ergebnis kommt eine aktuelle Studie, die Probanden KI-generierte und echte Porträts präsentierte. [...]

(c) National Academy of Sciences

Bilder von Gesichtern, die mithilfe von künstlicher Intelligenz generiert wurden, – sogenannte Deep Fakes – werden immer besser. Ja, sie sind mittlerweile derart täuschend echt, dass sie von vielen Menschen nicht als solche erkannt werden können.

Im Gegenteil: Viele Betrachterinnen und Betrachter erachten die KI-Porträts als «echter» und «vertrauenswürdiger» als unverfälschte Fotos von Personen. Zu diesem Ergebnis kommt eine Studie, die im Fachblatt «Proceedings of the National Academy of Sciences USA» (Pnas) veröffentlicht wurde.

Geringe Trefferquote

Konkret sollten in einem Experiment mehrere Personen beurteilen, ob Bilder von verschiedenen Gesichtern echt oder gefälscht waren. Beim ersten Test lag die Trefferquote lediglich bei 48 Prozent, also nur so viele erkannten, ob ein Bild echt oder mithilfe von KI generiert war. Erst nach mehreren Versuchen pendelte sich die Trefferquote bei immerhin 59 Prozent ein.

Bilder von hellhäutigen Menschen waren dabei am schwierigsten als Deep Fakes zu entlarven, was die Forscher damit erklären, dass den Algorithmen mehr Bilder von hellhäutigen als von dunkelhäutigen Menschen vorgelegt wurden, die KI in diesen Fällen also mehr «Erfahrung» hat und daher besser arbeitet.

In einem weiteren Experiment, wurden die Teilnehmerinnen und Teilnehmer auch gebeten, zu bewerten, welche der vorgelegten Gesichterporträts am vertrauenswürdigsten aussahen. Auch hier gewannen die gefälschten Bilder gegenüber den echten. Dies sogar, obwohl auf den echten Bildern mehr und intensiver gelächelt wurde.


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*