Roboter helfen im Wahlkampf Republikaner kontern Biden mit KI-Video

Von Dirk Jacquemien

25.4.2023

Republikaner kontern Biden mit KI-Video

Republikaner kontern Biden mit KI-Video

Künstliche Intelligenz könnte auch die US-Wahl 2024 massgeblich beeinflussen. Das zeigt sich schon in der ersten Stunde des Wahlkampfes.

25.04.2023

Künstliche Intelligenz könnte auch die US-Wahl 2024 massgeblich beeinflussen. Das zeigt sich schon in der ersten Stunde des Wahlkampfes.

Von Dirk Jacquemien

25.4.2023

Keine Zeit? blue News fasst für dich zusammen

  • Die Republikaner haben mit einem Werbespot auf Joe Bidens Ankündigung, sich wieder zur Wahl zu stellen, reagiert.
  • Das Video setzt komplett auf KI-generierte Bilder.
  • Es zeigt eine Vision eines dystopischen Amerikas unter Biden.

Joe Biden hat heute bekannt gegeben, 2024 bei der US-Präsidentschaftswahl anzutreten, knapp ein halbes Jahr nachdem sein Vorgänger und Möchtegern-Nachfolger Donald Trump dies ebenfalls verkündete. Der Wahlkampf ist also offiziell eröffnet.

Weniger als eine Stunde nach Bidens Ankündigung hat die Republikanische Partei bereits einen Anti-Biden-Wahlkampfspot veröffentlicht. Das Besondere dabei: Dieser wurde mittels künstlicher Intelligenz-Technologie erzeugt.

Krisen und Kriege erfunden

Die Partei legt das dabei offen, «vollständig erzeugt mittels KI-Bildern» steht in kleiner Schrift oben links in dem Video. Es soll zeigen, wie die Zukunft des Landes aussehe, sollte Biden wiedergewählt werden. Wenig verwunderlich, lassen die Republikaner dabei ihre KI ein Schreckensszenario an die Wand malen.

Auf Bilder von einem glücklichen Joe Biden bei seinem imaginierten Wahlsieg 2024 folgen ominöse Szenen einer chinesischen Invasion Taiwans, von langen Schlangen vor geschlossenen Banken sowie eines vom Militär abgeriegelten San Francisco. Krieg, Krise und Verbrechen drohen Amerika bei einer Biden-Wiederwahl, so die wenig subtile Botschaft.

Expert*innen macht allerdings weniger dieser transparente Einsatz von KI-Technologie, sondern deren Fähigkeiten, Falsches als Wahrheit zu verkaufen. So ist es etwa inzwischen mit geringem Aufwand möglich, Stimmen nahezu perfekt zu imitieren. So könnten Kandidat*innen Worte in den Mund gelegt werden, die sie nicht gesagt haben.