Social Media-Moderatorin Sie musste für YouTube täglich Gewaltvideos sehen – bis es zu viel wurde

Von Dirk Jacquemien

23.9.2020

Damit YouTube sauber bleibt, müssen Moderatoren verstörende Videos angucken.
Damit YouTube sauber bleibt, müssen Moderatoren verstörende Videos angucken.
Getty Images

Eine Moderatorin, die bei YouTube für die Löschung von Gewaltvideos und Ähnlichem zuständig war, hat das Unternehmen verklagt, weil sie eine posttraumatische Belastungsstörung entwickelte.

Eine ehemalige YouTube-Moderation hat die Google-Tochter verklagt, weil die Arbeit bei ihr eine posttraumatische Belastungsstörung sowie Depressionen erzeugt habe. Die in der Klage anonym bleibende Frau arbeitete von Januar 2018 bis August 2019 über den Personaldienstleister Collabera bei YouTube in den USA.

Zu den Aufgaben von Moderatoren wie der Klägerin gehört das Löschen problematischer bis illegaler Inhalte, die auf Social-Media-Plattformen wie YouTube hochgeladen werden. Die Videos, die sie dabei anschauen musste, zeigten unter anderem Kannibalismus, Enthauptungen, Amokläufe, Suizide und Kindesmissbrauch.

Drogenkonsum statt Therapie

Die Moderatorin habe Probleme beim Einschlafen, schreckliche Albträume, Angst vor belebten Plätzen und Panikanfälle, heisst es in der Klage vor einem Gericht in Kalifornien. YouTube wird vorgeworfen, nicht für einen sicheren Arbeitsplatz gesorgt zu haben. Aufgrund chronischer Unterbesetzung hätten die Moderatoren regelmässig länger als vorgesehen arbeiten müssen.

YouTube stellte «Wellness-Trainer» zur Unterstützung der Moderatoren zur Verfügung. Diese waren allerdings keine zertifizierten Psychologen mit medizinischer Ausbildung. Einer dieser «Wellness-Trainer» habe der Moderatorin empfohlen, illegale Drogen zu konsumieren, um mit verstörenden Videos besser umgehen zu können.

Übliche Praxis in der Tech-Branche

Wenn es um die Moderation von nutzergenerierten Inhalten geht, verhalten sich fast alle Tech-Unternehmen gleich. Viele versuchen, sie mit von künstlicher Intelligenz angetriebenen Algorithmen durchzuführen, aber die Technik ist noch lange nicht in der Lage, menschliches Urteilsvermögen zu ersetzen. Diese Tätigkeit wird dann fast vollständig an Subunternehmen abgegeben, deren Angestellte dramatisch weniger verdienen als direkt bei den Tech-Giganten beschäftigte Mitarbeiter.

«Das Magazin» und die «Süddeutsche Zeitung» enthüllten 2016 per Undercover-Recherche den Moderatoren-Alltag bei einem Facebook-Subunternehmer in Berlin. Hauptsächlich Neuankömmlinge in der deutschen Hauptstadt mussten dort für kaum mehr als den Mindestlohn tagein und tagaus zutiefst verstörende Inhalte ansehen. Auch hier gab es in der Praxis quasi keine psychologische Unterstützung für die vielfach traumatisierten Moderatoren.

In den USA initiierten Facebook-Moderatoren mit vergleichbaren Erfahrungen eine Sammelklage gegen das Unternehmen — mit den gleichen Anwälten, die nun die YouTube-Moderatorin vertreten. In einem Vergleich erstritten sie 52 Millionen Dollar von Facebook. Ausserdem verpflichtete sich das Unternehmen zu Änderungen, die den Arbeitsalltag der Moderatoren verbessern sollen.



KI versagt oft

YouTube hatte seit Beginn der Coronapandemie noch stärker auf künstliche Intelligenz gesetzt. Dabei wurden allerdings auch die Limits der Technik erneut deutlich. Knapp doppelt so viele Videos wie üblich wurden gelöscht, allerdings schoss auch die Zahl der Beschwerden dagegen in die Höhe. Offensichtlich hatte die KI zahlreiche Videos ohne triftigen Grund gelöscht.

An Menschen wird man also auf absetzbare Zeit bei der Moderation von Social-Media-Inhalten nicht vorbeikommen können. Was die Tech-Konzerne mit ihren Milliardengewinnen natürlich problemlos machen könnten, ist, mehr Moderatoren mit besserer Bezahlung einzustellen, ihnen Psychologen zur Seite zu stellen und so den Arbeitsstress zu reduzieren. Google-Mutterkonzern Alphabet machte im zweiten Quartal 2020 einen Profit von 6,38 Milliarden Dollar, Facebook von 5,96 Milliarden Dollar.

Zurück zur Startseite