Künstliche Intelligenz Rassismus-Vorwurf gegen Microsofts Roboter-Journalisten

dj

9.6.2020

Roboter-Journalisten verwechselten Jade Thirlwall (r.) mit ihrer Bandkollegin Leigh-Anne Pinnock (l.).
Roboter-Journalisten verwechselten Jade Thirlwall (r.) mit ihrer Bandkollegin Leigh-Anne Pinnock (l.).
Getty Images

Ausgerechnet einen Artikel über Rassismus haben Microsofts Roboter-Journalisten mit einem Foto der falschen Sängerin bebildert.

Roboter-Journalisten von Microsofts Nachrichtenseite MSN haben einen von einer anderen Seite übernommenen Artikel, der sich mit den Rassismus-Erfahrungen einer britischen Pop-Sängerin beschäftigt, mit dem Foto einer anderen schwarzen Sängerin bebildert.

Jade Thirlwall von der Pop-Band Little Mix sprach in einem BBC-Podcast über ihre Erfahrung mit Rassismus und Mobbing während ihrer Schulzeit. MSN übernahm einen Artikel, der über den Podcast berichtete, bebilderte ihn allerdings mit einem Foto von Thirlwalls Bandkollegin Leigh-Anne Pinnock. Thirlwall und Pinnock sind die einzigen nichtweissen Mitglieder von Little Mix. Thirlwall beschwerte sich in einer Instagram-Story über das Vorgehen.

Menschliche Journalisten entlassen

MSN verfasst selber keine eigenen Nachrichtenartikel, sondern übernimmt sie von anderen Medien. Die Kuration wurde bisher von menschlichen Journalisten übernommen, Ende letzten Monats jedoch entliess Microsoft rund 50 Journalisten, deren Jobs nun von einer künstlichen Intelligenz erledigt werden sollten.

Eine frühe Anwendung dieser KI führte nun zu der problematischen Bildverwechslung, wie der «Guardian» berichtet. Als dies erkannt wurde, habe man das Bild sofort ersetzt, so Microsoft zum «Guardian». Die Zeitung berichtet weiter, dass die verbliebenen menschlichen Journalisten angewiesen wurden, auf Berichterstattung zu diesem Vorfall zu achten. Denn es könnte sein, dass die Roboter-Journalisten entsprechende Artikel dazu bei MSN platzieren, weil sie sie für nachrichtenwürdig halten.

KI-Anwendungen stehen generell in der Kritik, da sie vielfach bewusste und unterbewusste Vorurteile ihrer Programmierer übernehmen. Microsoft selbst hat ebenfalls schon Erfahrung mit rassistischer KI. Sein Twitter-Chatbot Tay wandelte sich 2016 wenige Stunden nach seiner Lancierung zu einem neonazistischen Troll. 

Anti-Rassismus-Protest in Zürich

Zurück zur Startseite