Politische Manipulation verhindern KI soll Deepfakes fast perfekt erkennen

dj

24.6.2019

Bei einem Deepfake-Test wurden die Gesichter von Donald Trump und Elizabeth Warren über eine Performance ihrer «Saturday Night Live»-Doppelgänger gelegt.
Bei einem Deepfake-Test wurden die Gesichter von Donald Trump und Elizabeth Warren über eine Performance ihrer «Saturday Night Live»-Doppelgänger gelegt.
UC Berkeley/USC

Forscher haben eine Methode entwickelt, mit der Deepfakes-Videos zumindest derzeit zuverlässig enttarnt werden sollen.

Deepfakes werden zu einem immer grösseren Problem. Simple, manipulierte Videos kann quasi jedermann mit Hilfe von Apps erstellen, aber inzwischen sind mit den entsprechenden Ressourcen auch Deepfakes möglich, deren Unechtheit selbst für das geschulte Auge nicht mehr wirklich zu erkennen ist. Eine Sorge besteht darin, dass Deepfakes zur politischen Manipulation eingesetzt werden könnten, etwa bei der US-Präsidentschaftswahl 2020. 

Amerikanische Wissenschaftler haben nun ein von Künstlicher Intelligenz angetriebenes Tool entwickelt, mit dem Deepfake-Videos mit nahezu perfekter Genauigkeit erkannt werden können (bei Fotos gelang dies kürzlich Adobe). Die Forscher der University of California, Berkeley sowie der University of Southern California haben die Ergebnisse in einem Papier vorgestellt. Ihre Methode setzt dabei auf unbewusste Gesichts- und Kopfbewegungen der gezeigten Personen.

Methode soll derzeit nicht zu überlisten sein

Getestet wurde die Methode anhand von Videos der US-Politiker Donald Trump, Barack Obama, Hillary Clinton, Bernie Sanders und Elizabeth Warren. Diese haben wie alle Menschen bestimmte Eigenarten beim Sprechen, bewegen etwa ihren Kopf in eine bestimmte Richtung bei der Beantwortung von Fragen.

Auf diese Eigenarten achtete der Algorithmus der Forscher und erreichte damit eine Genauigkeit von 92 bis 98 Prozent bei der Erkennung manipulierter Videos. Vorteil dieser Methode ist, dass sie nicht einfach zu überlisten ist. So werden Deepfakes-Videos von ihren Macher oft bewusst exzessiv komprimiert, um Artefakte entstehen zu lassen, die Anzeichen von Fälschung überdecken sollen. Der Algorithmus der kalifornischen Forscher wird davon nicht getäuscht.

Dennoch ist es wohl nur ein Etappensieg beim Wettrüsten gegen Deepfakes. Frühere Deepfakes liessen sich etwa an unnatürlichem Augenblinzeln erkennen, doch die Deepfake-Algorithmen wurden in diesem Aspekt inzwischen perfektioniert. Laut Hao Li, einem der beteiligten Forscher, wird es Fälschern vermutlich bald gelingen, auch seine Erkennungsmethode auszutricksen.

Selbst Deepfaken mit «Mug Life»

Zurück zur Startseite