Neuer Algorithmus erkennt Deepfake-Videos

Indische Wissenschaftler erkennen fast 100 Prozent der Deepfake-Videos mithilfe Künstlicher Intelligenz. [...]

Diese Grafik veranschaulicht das System der Deepfake-Erkennung der indischen Wissenschaftler.
Diese Grafik veranschaulicht das System der Deepfake-Erkennung der indischen Wissenschaftler. (c) Grafik: SPIE

Forscher des Thapar Institute of Engineering and Technology und des Indraprastha Institute of Information Technology  haben ein Verfahren entwickelt, das Deepfake-Videos zuverlässig erkennt. Sie nutzen hierzu die gleiche Technik, mit der die Fälschungen hergestellt wurden: Künstliche Intelligenz. Die Erfolgsquote lag bei 98,21 bis 99,62 Prozent – und das bei einer kurzen Trainingszeit.

Erkennung auf zwei Ebenen

Der Algorithmus hat zwei Ebenen für die Erkennung. In der ersten werden Videos leicht bearbeitet, etwa gezoomt. In der zweiten werden zwei unterschiedliche Techniken eingesetzt –- zunächst ein „Convolutional Neural Network“, eine Art faltendes neuronales Netzwerk. Es handelt sich um ein von biologischen Prozessen inspiriertes Konzept im Bereich des Maschinenlernens. Die zweite Technik heißt „Long short-term memory“. Sie wird zum Trainieren von künstlichen neuronalen Netzwerken genutzt. Sie merkt sich Fehleinschätzungen und gibt sich erst zufrieden, wenn das richtige Ergebnis vorliegt, also die Entscheidung, ob ein Video echt oder gefälscht ist.

Zunächst mussten die indischen Forscher ihren Algorithmus trainieren. Zu diesem Zweck haben sie einen Datensatz mit 200 Videos ähnlich aussehender Politikerpaare erstellt. 100 davon waren real und die anderen 100 wurden mit Deepfake-Technologie manipuliert. Einen Teil davon kennzeichneten die Entwickler als echt oder gefälscht. Das half dem Algorithmus, eigenständige Entscheidungen zu treffen. Die neue Methode testeten die Forscher an 181.608 Beispielen von echten und gefälschten Videos. Damit haben soziale Medien möglicherweise ein zuverlässiges Instrument, um oft gefährliche Fälschungen zu identifizieren und zu löschen.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*