Internet-Trend Deepfake-Videos sind so amüsant wie gefährlich

Von Lukas Rüttimann

18.1.2020

Hier wird die Manipulation immerhin offensichtlich: Donald Trump wurde in ein Dragqueen-Kostüm getrickst.
Hier wird die Manipulation immerhin offensichtlich: Donald Trump wurde in ein Dragqueen-Kostüm getrickst.
Screenshot: Youtube

Prominenten Wörter in den Mund legen? Dank Computertechnik ist das ein Kinderspiel. Doch trotz des Unterhaltungswerts: Der Deepfake-Trend im Internet ist auch gefährlich. 

«Star Wars»-Schöpfer George Lucas lästert leidenschaftlich über die neuste Episode der Sci-Fi-Saga ab. US-Präsident Donald Trump kommentiert einen Auftritt seines Vizes Mike Pence im Dragqueen-Kostüm. Box-Champion Mike Tyson diskutiert mit Gangsta-Rapper Snoop Dogg über Beziehungsprobleme.

Und: Sylvester Stallone läuft anstelle seines einstigen Erzrivalen Arnold Schwarzenegger durch eine Szene aus «Terminator 2».

Nanu: Wie kommt Sylvester Stallone bloss in den Schwarzenegger-Streifen «Terminator 2»?

Video: Youtube

Freilich ist das alles viel zu schön, um wahr zu sein. Es sind Beispiele für sogenannte Deepfake-Videos, in denen Gesichter und Dialoge per Computertechnik auf andere Personen montiert werden können.

Der Trend erfreut sich seit einiger Zeit wachsender Beliebtheit. Late-Night-Gastgeber im US-Fernsehen nutzen ihn für ihre Eröffnungsmonologe, Online-Portale lancieren Serien und immer mehr Youtube-Kanäle spezialisieren sich auf die Produktion und Verbreitung solcher Clips. Erst vor kurzem etwa kündigte das Unterhaltungsportal Collider an, fortan auf Live-Talksendungen über Kinofilme zu verzichten und stattdessen verstärkt auf Deepfake-Formate zu setzen.

Ein täuschend echter Arnie

Tatsächlich ist es faszinierend zu sehen, was mit Computertechnik alles angestellt werden kann. Eines der beeindruckendsten Deepfake-Videos stellte der Youtube-Nutzer mit dem Namen «Ctrl Shift Face» letztes Jahr online.

Es zeigt Komiker Bill Hader (bekannt etwa aus «Saturday Night Live»), wie er bei Talkshow-Host Conan O’Brien das unverkennbare Ösi-Englisch von Arnold Schwarzenegger nachahmt. Während er das tut, verwandelt sich sein Gesicht nahezu unbemerkt in jenes des «Terminator»-Darstellers. Ehe man sich versieht, hat man das Gefühl, Schwarzenegger selbst sässe auf dem Sofa der Talkshow.

Aus Bill Hader wird Arnold Schwarzenegger: Computerhexerei macht’s möglich. 

Video: Youtube

Mehr als 12 Millionen Menschen haben dieses Video bislang auf Youtube angeklickt. Ähnliche Deepfake-Beispiele gibt es mit Auftritten von Bill Hader als Tom Cruise und Al Pacino. Dabei hilft es, dass der US-Komiker Stimme und Gestik der Prominenten hervorragend imitieren kann.

Doch eigentlich ist das gar nicht nötig. Denn mit Computertechnik können heute nicht nur Gesichter, sondern auch Stimmen und Mimik täuschend echt imitiert und manipuliert werden. Bei George Lucas’ bissigem Kommentar zum letzten «Star Wars»-Trailer etwa sitzt kein Imitator auf dem Stuhl.

George Lucas zieht über den neuesten «Star Wars»-Film her. 

Video: Youtube

Trump gegen die Belgier

Möglich macht das eine Technik namens GANS (Generative Adversarial Networks), die mittels künstlicher Intelligenz Gesichter sozusagen lesen und neu interpretieren kann. Auch Hollywood hat sich das zunutze gemacht und beispielsweise in den letzten «Star Wars»-Filmen verstorbene Stars wie Carrie Fisher oder Peter Cushing auf der Leinwand zu neuem Leben erweckt. Bei Martin Scorseses «The Irishman» wurde sie eingesetzt, um Schauspieler um Jahrzehnte zu verjüngen.

Inzwischen gibt es vergleichsweise simple Tools, mit denen Gesichter, Stimmen und Gesten imitiert werden können. Das hat zum einen eine ganze Welle an solchen Fake-Videos im Internet zur Folge; auf der anderen Seite hat das aber auch die Alarmglocken läuten lassen. Denn natürlich kann Deepfake nicht nur zur Belustigung genutzt werden.

Gemerkt hat man das schon relativ früh. Im Mai letzten Jahres tauchte ein Video mit Donald Trump in den sozialen Medien auf, in dem er sich an das belgische Volk wandte: «Wie ihr wisst, hatte ich die Eier, mich vom Pariser Klimaabkommen zu verabschieden – da solltet ihr auch tun», fordert der US-Präsident darin die Belgier auf.

Freilich war das Video als Parodie gedacht. Doch das Problem war, dass die Leute das nicht erkannten. Hunderte empörte Kommentare von Bürgern gingen ein, wie es der US-Präsident wagen könne, sich in die Klimapolitik ihres Landes einzumischen. Die Macher mussten sich darauf eiligst erklären – und sich entschuldigen. Der Beweis, wie gefährlich Deepfake im Falle eines Missbrauchs werden kann, war damit dennoch erbracht.

Facebook zensiert, Snapchat fördert

Dass Deepfake inzwischen zu einem echten Problem geworden ist, zeigt das Vorgehen von Facebook. Ein knappes Jahr vor den Präsidentschaftswahlen in den USA hat das Unternehmen kürzlich angekündigt, aktiv gegen solche Videos vorzugehen. Man wolle zwischen Manipulation und Parodie stärker unterscheiden und Deepfakes immer dann löschen, «wenn es einer Durchschnittsperson nicht auffällt, dass es sich um eine Fälschung handelt». Auch Reddit hat angekündigt, Fake-Videos und Imitatoren künftig zu löschen.

Unklar indes bleibt, wo genau die Firmen die Grenzen ziehen wollen. Einigermassen konsterniert schrieb Facebook in seinem Unternehmens-Blog denn auch, dass Deepfake-Videos «eine grosse Herausforderung für unsere Branche und die Gesellschaft» seien. Zumal es Konkurrenten wie den Chatdienst Snapchat gibt. Der hat soeben ein neues Tool namens Cameos lanciert, dank dem sich Gesichter beliebig in Videos platzieren lassen.

Vielleicht hätte Facebook bei seiner Absichtserklärung auch einfach das Deepfake-Video mit dem Chef als abschreckendes Beispiel posten sollen. Denn das zeigt Mark Zuckerberg, wie er darüber spricht, dass das soziale Netzwerk seine Nutzer ausspioniert und die Daten weitergibt.

Wie immer bei einem Deepfake ist es gefälscht, irgendwie unheimlich – aber auch sehr, sehr lustig.

Auch Facebook-Chef Mark Zuckerberg ist nicht vor Deepfake-Videos gefeit. 

Video: Youtube

Zurück zur Startseite