Europol warnt

Organisierte Kriminalität könnte Deepfakes nutzen

dpa

28.4.2022 - 19:32

This image made from video of a fake video featuring former President Barack Obama shows elements of facial mapping used in new technology that lets anyone make videos of real people appearing to say things they've never said. There is rising concern that U.S. adversaries will use new technology to make authentic-looking videos to influence political campaigns or jeopardize national security. (AP Photo)
Mit Hilfe der Deepfake-Technologie wäre es zum Beispiel möglich, Ex-US-Präsident Barack Obama mit gefakten Videos zu diskreditieren.
Bild: KEYSTONE

Die organisierte Kriminalität könnte sich sogenannte Deepfakes zu Nutze machen, um die Arbeit von Polizei und Justiz zu erschweren. Europol warnt vor dem Missbrauch der Technologie.

dpa

28.4.2022 - 19:32

Die europäische Strafverfolgungsbehörde Europol hat vor der Nutzung der Deepfake-Technologie durch die organisierte Kriminalität gewarnt. Mit Hilfe künstlicher Intelligenz erstellte Videos und Bilder könnten von Kriminellen zu verschiedenen Zwecken genutzt und auch zur Behinderung der Arbeit von Polizei und Justiz eingesetzt werden, teilte Europol am Donnerstag in Den Haag mit.

Deepfakes könnten für Erpressungs- und Betrugsdelikte, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen genutzt werden. Desinformationskampagnen und eine Beeinflussung der öffentlichen Meinung könnten über Deepfakes betrieben werden, bis hin zur Anstachelung zu politischen und gesellschaftlichen Unruhen.

Ausserdem könnten versierte Banden die komplizierte Deepfake-Technologie anderen für kriminelle Vorhaben als Service anbieten. Die Justiz könne mit vermeintlichem Beweismaterial, das aus manipulierten Videos oder Bildern besteht, getäuscht werden.

Deepfakes sind mit Hilfe künstlicher Intelligenz (KI) erstellte Videos, Bilder oder auch Audio-Dokumente, die authentisch wirken sollen, es aber nicht sind. Der KI-Einsatz sorgt dafür, dass die Stimme echt klingt und gesprochene Sprache und Mimik zueinander passen.

Vorgegaukelte Authentizität

Für einen Erpressungsversuch etwa können die Handelnden in einem Pornovideo mit dem Gesicht einer unbeteiligten Person versehen werden, teilte Europol mit. Ein Fremder könne am Telefon mit der Technik wie der bekannte Firmenchef klingen und einen Mitarbeiter zu einer Überweisung veranlassen. Die Arbeit im Homeoffice seit der Corona-Krise schaffe verstärkt Ansatzpunkte für den betrügerischen Einsatz von Deepfakes. Selbst Passbilder könnten derart manipuliert werden, dass bei einer Kontrolle nicht auffalle, dass das Gesicht einer anderen Person in das Foto des Passinhabers hereingearbeitet worden ist.

Der zunehmenden Entwicklung und Nutzung der Deepfake-Technologie müssten Polizeibehörden Prävention und automatisierte Programme zum Erkennen von Fälschungen entgegenstellen, riet Europol. Auch die Gesetzgebung müsse mit den technischen Entwicklungen Schritt halten.

dpa