Kollektiv vorm Fernseher sitzen und Nachrichten schauen? Das war einmal. Für viele haben soziale Medien längst klassische Nachrichten ersetzt. Doch dort lauert Desinformation.
Gerade jene Bilder und Videos, die im Netz am häufigsten geklickt werden, sind oft gefälscht oder aus dem Zusammenhang gerissen. Doch wie erkennt man Fakes?
Wer allein auf technische Lösungen hofft, wird enttäuscht: «Es gibt keine Webseite und kein Tool, das Ihnen mit Sicherheit bestätigen kann, dass ein Foto nicht manipuliert ist», warnt Prof. Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie (SIT).
Das bedeutet aber nicht, dass Technologie nicht wertvolle Hilfe leisten kann. «Die einfachste und häufigste Art von Desinformation ist die Wiederverwendung von alten Fotos oder Videos in neuem Kontext», sagt Steinebach. Wird solches Archivmaterial seriös eingesetzt, etwa weil zu einem aktuellen Ereignis noch keine Bilder vorliegen, gibt es eine Einblendung.
Diese trägt den Hinweis «Archivmaterial» oder besteht aus dem Datum der Aufnahme samt ihrem Urheber. Fotos und Videos können aber natürlich auch unkommentiert instrumentalisiert werden, um die Wahrnehmung von Ereignissen zu verfälschen.
Umgekehrte Bildersuche nutzen
Ein irreführender oder betrügerischer Foto-Einsatz lässt sich oft durch die inverse Bildersuche von Suchmaschinen sichtbar machen. «Allerdings können schon kleine Veränderungen am Bild oder der Trick, es spiegelverkehrt zu publizieren, die inverse Bildersuche ins Leere laufen lassen», warnt Prof. Steinebach. Um Veränderungen oder Bildmontagen zu entdecken, gibt es Webtools wie
Fotoforensics.com oder
Forensically.
Solche Tools arbeiten basierend auf der Annahme, dass durch die verschiedenen Komprimiervorgänge, die ein Digitalfoto meist durchläuft, sich dessen Bildflächen am Ende unterscheiden – etwa in den Farbwerten oder genereller im Bildrauschen, erläutert IT-Forensiker Steinebach. Teils analysierten sie auch Metadaten.
Aber auch hier gibt es ein Aber: «Wenn das Foto nach der Manipulation nochmals komprimiert wird, kann das frühere Manipulationen verdecken», erklärt Steinebach. Umgekehrt reagierten Flächen mit viel Textur anders als plane Flächen, was falschen Alarm auslösen könne.
Steinebach selbst habe zu Testzwecken schon einmal das Foto eines Stromzählers manipuliert und mit unterschiedlichen Tools untersucht. Ergebnis: Die völlig andere Struktur der Plomben löste Fake-Alarm aus, der veränderte Zählerstand blieb unbemerkt.
Auch mit Videos wird der Versuch unternommen, falsche Tatsachen vorzuspielen oder zu untermauern. Die Nutzung bereits vorhandener Aufnahmen in neuem, falschem Kontext, ist auch hier die häufigste Manipulationsform.
Die US-amerikanische Sektion von Amnesty International stellt auf einer Seite namens Citizenevidence eine
Suchmaske bereit, in die Links verdächtiger Youtube-Videos kopiert werden können. Die Seite stellt dann Metadaten wie Aufnahmeort oder Zeitpunkt des Hochladens fest und extrahiert zudem einzelne Bilder, die wiederum für eine inverse Bildersuche verwendet werden können.
Bei Videos ausserhalb von Youtube gilt es, genauer hinzuschauen: Sind Schriftzüge in der Sprache des Landes verfasst, wo das Ereignis angeblich stattgefunden hat? Stimmen Jahres- und Tageszeit überein? Ausserdem sei es wichtig, mindestens eine zweite Quelle für das Ereignis zu finden, betont Pina Merkert vom IT-Fachmagazin «c't».
«Wenn es keine zweite Quelle gibt oder die erste behauptet, andere Medien würden dieses Ereignis bewusst verschweigen, ist das eher ein Hinweis, dass ich gerade angelogen werde», sagt Merkert.
Ganz anders funktionieren sogenannte Deepfakes. Das sind Video-Fälschungen, bei denen etwa prominente Köpfe auf andere Körper gesetzt oder Menschen falsche Aussagen untergeschoben werden. «Man erkennt sie meist an typischen Fehlern wie verschwurbelten Haaren und komisch geformten Ohren», erklärt Pina Merkert.
Das liege daran, dass die dazu eingesetzte Künstliche Intelligenz (KI) zwar immer besser werde – aber nur, wenn die Datenbasis stimmt. Wurden also bestimmte Menschen oft beim Reden gefilmt, seien Lippen, Mund, Nase oder Augen leichter darzustellen. Für die oft von Haaren verdeckten Ohren oder dem selten sichtbaren Mund-Innenraum fehlten der KI aber Beispiele, um realistisch wirkende Bilder zu errechnen.
Gesprochene Sprache lasse sich recht einfach etwa mit Googles Sprachsynthese-Programm Wavenet nachbilden. Hierfür seien anfangs riesige Datensätze nötig gewesen, die nur grosse Firmen händeln konnten. Inzwischen sei die nötige Datenmenge aber um den Faktor vier geschrumpft und Manipulationen entsprechend einfacher, weiss Merkert.
Sie rät jedem, sich Beispiele anzusehen, um ein Gefühl für Deepfakes zu bekommen – etwa auf den gängigen Videoportalen: «Die sind leicht zu finden, weil die Mehrzahl ja nicht in böser Absicht, sondern einfach als Gag mit Promis produziert wurde.»
So erschreckend wie sein Logo ist Mug Life gar nicht. Wir zeigen, wie man mit App Fotos zum Leben erweckt.
Bild: dj
Beim ersten Start von Mug Life kann man sich entscheiden, ob man sich mit dem eigenen Facebook-Konto oder als Gast anmelden will.
Bild: dj
Das ist die Startansicht von Mug Life. Hier kann man die Kreationen anderer Nutzer bestaunen. Will man nun selbst ein Bild animieren, berührt man das Foto-Symbol oben rechts. Nun lässt sich ein Selfie erstellen oder ein Bild aus der Fotobibliothek des Smartphones importieren.
Bild: dj
Etwa dieses Foto des immer grimmigen König des Nordens. In der unteren Leiste finden sich einige vorgefertige Filter, mit denen das Bild manipuliert werden kann.
Bild: dj
Mug Life erkennt automatisch das Gesicht und animiert es, so dass man Jon Snow etwa ein Lächeln auf die Lippen zaubern kann.
Bild: dj
Neben den von Mug Life bereitgestellten Filtern kann man auch Filter von anderen Nutzer verwenden. Dazu in der Leiste nach rechts scrollen, «Mehr» berühren...
Bild: dj
...und im grossen Fundus die gewünschte Animation auswählen.
Bild: dj
Man kann über «Erstellen» ganz links in der Leiste auch eine eigene Animation erstellen.
Bild: dj
Dafür ist allerdings ein Abo erforderlich, das ab zwei Franken in der Woche beginnt. Hiermit können Besitzer eines iPhone X oder XS dann auch ganze Deepfake-Videos in Echtzeit erstellen.
Bild: dj
Ist man mit der Bearbeitung fertig, kann das Endprodukt über den Teilen-Button oben rechts in diversen sozialen Netzwerken gepostet werden oder als GIF oder Videos auf dem eigenen Gerät gespeichert werden.
Bild: dj
Über den «Sichern»-Button kann man ein animiertes Bild auch in Mug Life selbst sichern, entweder nur für den eigenen Gebrauch oder für den öffentlichen Konsum.
Online-Elternabend: «Sharenting – Umgang mit Kinderbildern im Netz»
«Sharenting» steht für das Phänomen, wenn Eltern, Erziehungsberechtigte oder auch Grosseltern Fotos ihrer Kinder online stellen und teilen. Unter der Leitung von Claudia Lässer diskutierten Expert*innen und Eltern über das Thema.
20.11.2024
Elternabend bei blue Zoom: Die Folgen von Sharenting für die Kinder
Das Teilen von Kinderfotos im Internet birgt Gefahren. Am Online-Elternabend auf blue Zoom und im blue Zoom Livestream am 19. November, 20 Uhr, sprechen Medienexperten und Eltern über Datenmissbrauch, Mobbing und andere Risiken.
08.11.2024
Gamescom hat begonnen: Es kriselt in der Welt der Zocker
Die Gamescom ist eröffnet: Wie auch in den letzten Jahren werden wieder hunderttausende Besucher erwartet. Doch es kriselt in der Welt Zocker.
21.08.2024
Online-Elternabend: «Sharenting – Umgang mit Kinderbildern im Netz»
Elternabend bei blue Zoom: Die Folgen von Sharenting für die Kinder
Gamescom hat begonnen: Es kriselt in der Welt der Zocker