Deepfake-Videos finden immer mehr Opfer

dj

2.1.2019

Schauspielerin Scarlett Johansson ist ein beliebtes Deepfake-Ziel.
Keystone

Längst werden mit manipulierten Videos nicht mehr nur öffentlichen Personen diskreditiert. Vor allem Frauen werden immer öfters zum Opfer von Deepfake-Videos.

Schon seit einigen Jahren ist die so genannte Deepfake-Technik auf dem Vormarsch. Mit dieser lässt sich eine beliebige Person in ein künstlich erstelltes oder ein bereits bestehende Video einfügen, teilweise mit täuschend echt aussehendem Ergebnis.

Und im Gegensatz zu früherer Videomanipulation muss hier nicht mehr aufwendig jedes Einzelbild eines Films verändert werden sondern dank künstlicher Intelligenz kann dieser Vorgang weitgehend automatisiert werden. Das macht Manipulationen viel einfacher.

Deepfake-Pornos sind populär

Wie vielen andere neuen Technologien wurde auch Deepfake zuerst grossflächig in der Pornografie eingesetzt. Hier wurde es vor allem dafür genutzt, um die Gesichter bekannter Mainstream-Schauspielerinnen in pornografischen Filmen einzufügen.

Ein einziges Deepfake-Video von Hollywood-Star Scarlett Johansson etwa wurde über 1,5 Millionen mal angesehen. Es sei quasi unmöglich, sich davor zu schützen, so Johansson zur «Washington Post»: «Das Internet ist ein riesiges Wurmloch der Dunkelheit, das sich selbst frisst».

Einfache Menschen werden zu Opfern

Und längst zählen zu den Opfern nicht mehr nur Prominente wie Johansson. In diversen Foren lassen sich Bilder etwa von Arbeitskolleginnen oder Ex-Partnern hochladen. Gegen Zahlung von knapp 20 Dollar werden diese dann in ein echt wirkendes Pornovideo eingefügt. Alles was man für einen erfolgreichen Deepfake braucht sind also einige Fotos der Zielperson — die sich problemlos auf Social Media-Profilen finden lassen sollten.

Selbst falls die Ersteller der Deepfake-Videos auffindbar sind, könnte es für Opfer schwierig werden, sich zu wehren. In den USA könnten Deepfake-Videos nach Auffassung einiger Rechtsexperten sogar vom Ersten Verfassungszusatz geschützt sein — getestet wurde dies vor den Gerichten noch nicht, so die «Washington Post». In der Schweiz dürfte man immerhin mittels des Persönlichkeitsrecht gegen Deepfakes vorgehen können.

Politische Manipulation möglich

Das Potenzial für Missbrauch durch Deepfakes beschränkt sich natürlich nicht auf solche Methoden. Politiker etwa könnten in einem Deepfake-Video bei der Entgegennahme von Schmiergeld gezeigt werden und so diskreditiert werden. Ausserdem können öffentlichen Personen Sätze in den Mund gelegt werden, die sie nie gesagt haben, wie «BuzzFeed» demonstriert:

Werde solche Videos dann gezielt kurz vor wichtigen Wahlen veröffentlicht, könnte es schwierig sein, schnell eine Fälschung nachzuweisen. Umgekehrt erlaubt alleine die Existenz der Deepfake-Technologie Politikern, die sowieso gerne von «Fake News» reden, die Echtheit eines realen Videos abzustreiten.

Bilder des Tages

Zurück zur Startseite