Neuer Algorithmus erkennt Deepfake-Videos

Indische Wissenschaftler erkennen fast 100 Prozent der Deepfake-Videos mithilfe Künstlicher Intelligenz. [...]

Diese Grafik veranschaulicht das System der Deepfake-Erkennung der indischen Wissenschaftler.
Diese Grafik veranschaulicht das System der Deepfake-Erkennung der indischen Wissenschaftler. (c) Grafik: SPIE

Forscher des Thapar Institute of Engineering and Technology und des Indraprastha Institute of Information Technology  haben ein Verfahren entwickelt, das Deepfake-Videos zuverlässig erkennt. Sie nutzen hierzu die gleiche Technik, mit der die Fälschungen hergestellt wurden: Künstliche Intelligenz. Die Erfolgsquote lag bei 98,21 bis 99,62 Prozent – und das bei einer kurzen Trainingszeit.

Erkennung auf zwei Ebenen

Der Algorithmus hat zwei Ebenen für die Erkennung. In der ersten werden Videos leicht bearbeitet, etwa gezoomt. In der zweiten werden zwei unterschiedliche Techniken eingesetzt –- zunächst ein „Convolutional Neural Network“, eine Art faltendes neuronales Netzwerk. Es handelt sich um ein von biologischen Prozessen inspiriertes Konzept im Bereich des Maschinenlernens. Die zweite Technik heißt „Long short-term memory“. Sie wird zum Trainieren von künstlichen neuronalen Netzwerken genutzt. Sie merkt sich Fehleinschätzungen und gibt sich erst zufrieden, wenn das richtige Ergebnis vorliegt, also die Entscheidung, ob ein Video echt oder gefälscht ist.

Zunächst mussten die indischen Forscher ihren Algorithmus trainieren. Zu diesem Zweck haben sie einen Datensatz mit 200 Videos ähnlich aussehender Politikerpaare erstellt. 100 davon waren real und die anderen 100 wurden mit Deepfake-Technologie manipuliert. Einen Teil davon kennzeichneten die Entwickler als echt oder gefälscht. Das half dem Algorithmus, eigenständige Entscheidungen zu treffen. Die neue Methode testeten die Forscher an 181.608 Beispielen von echten und gefälschten Videos. Damit haben soziale Medien möglicherweise ein zuverlässiges Instrument, um oft gefährliche Fälschungen zu identifizieren und zu löschen.


Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*