Vor Deepfakes ist niemand sicher, ob Politiker*innen, Taylor Swift oder zunehmend auch normale Menschen wie du und ich. Rasante Vorschritte bei Künstlicher Intelligenz machen das Erstellen von sehr überzeugend wirkenden Fälschungen so leicht wie nie.
Die Technik ist inzwischen so weit fortgeschritten, dass bei vielen mittels KI generierten Bildern und Videos selbst ein geschultes Auge nicht mehr erkennen kann, was echt ist und was nicht. Das erzeugt ein enormes Missbrauchspotenzial, gegen das es derzeit kaum probate Mittel gibt.
Das will das Zürcher Start-up PXL Vision zusammen mit dem Walliser Forschungsinstitut Idiap nun ändern. Unterstützt durch Innosuisse, die Innovationsförderungsagentur des Bundes, soll eine Deepfake-Erkennungssoftware innert von 18 Monaten zur Marktreife gebracht werden.
Sie soll in der Lage sein, zuverlässig zu bestimmen, ob ein Gesicht oder ein Dokument authentisch ist. Zum Einsatz kommen könnte sie dann sowohl in Unternehmen, die sich gegen Betrug und Identitätsfälschung schützen wollen, als auch in Behörden, etwa, um die Echtheit eines Reisepasses zu überprüfen.
Keine leichte Aufgabe
Eine solche Erkennungssoftware mit der nötigen Treffsicherheit auszustatten, dürfte eine Mammutaufgabe sein. Auch die Deepfake-Technologie entwickelt sich fortlaufend weiter und offensichtliche Fehler in von ihnen erzeugten Bildern und Videos werden immer seltener.
International gibt es zahlreiche Unternehmen, die versuchen, Deepfakes zu erkennen. Neben Start-up gehört dazu etwa auch Intel. Dessen «FakeCatcher» verspricht eine 96-Prozent-Genauigkeit beim Erkennen von Fälschungen. Doch diese Zahlen stammen aus dem November 2022, eine halbe Ewigkeit in der KI-Entwicklung.