Late Night USA Gefahren der Gesichtserkennung – «ich weiss, wo du wohnst»

Von Philipp Dahm

15.6.2020

Erkannte Gesichter: Links John Oliver als Brite im «hormonellen Stalingrad», rechts als heutiger amerikanischer Late-Night-Host.
Erkannte Gesichter: Links John Oliver als Brite im «hormonellen Stalingrad», rechts als heutiger amerikanischer Late-Night-Host.
Screenshot: YouTube

Technologien zur Gesichtserkennung haben nicht bloss in autoritären Staaten wie China verheerende Folgen, warnt John Oliver in «Last Week Tonight»: Aktivisten in den USA sind ebenso betroffen – und vielleicht auch Sie!

«Die Technologie Gesichtserkennung existiert seit Jahren», führt Gastgeber John Oliver von «Last Week Tonight» in das Hauptthema seiner Late-Night-Show ein, «aber seit diese zuletzt immer ausgereifter geworden ist, haben sich Anwendungsmöglichkeiten enorm vergrössert. Sie haben beispielsweise nicht mehr nur Menschen zum Ziel.»

Ab Minute 1:21 folgt ein Clip über eine Fischfarm, die ihre Tiere mit Sensoren erfasst, sie anhand individueller Merkmale erkennt, vermisst, Krankheitssymptome und sogar diesen oder jenen «loser fish» identifiziert.

«Ja, Loserfische», bestätigt Oliver – und erklärt, das sei in der Industrie tatsächlich ein stehender Begriff für depressive, deformierte oder anderweitig handicapierte Meeresbewohner.

Screenshot: YouTube

«Wüssten Sie, welcher dieser Fische ein ‹winner› oder ‹loser› ist – und sind Sie sicher?», fragt Oliver, bevor er das Rätsel dann selbst auflöst: «Denn es ist derselbe Fisch!» Und darum bedürfe es eben der Computer für die elektronische Gesichtserkennung.

Stalker-App Findface

Damit einher gingen jedoch eine «Menge von Problemen mit dem Datenschutz und der Freiheit», fährt der gebürtige Brite fort und zeigt sodann ab Minute 2:12 einen russischen Reporter, der die App Findface vorführt: Mit jener fotografiert dieser eine Frau in einem Café aus der Ferne, die Anwendung vergleicht das Bild und findet so die Social-Media-Profile der Dame.

«Stellen Sie sich das mal aus der Sicht der Frau vor», erregt sich der Gastgeber. «Sie verrichten ihr Tagwerk und bekommen aus dem Nichts eine Nachricht von einem Typen.» Oliver ahmt einen russischen Akzent nach: «Hallo. Sah dich vorhin im Café und habe Findface-App genutzt, um deinen Namen und deinen Kontakt rauszukriegen. Ich hole dich um 20 Uhr zuhause ab – keine Sorge, ich weiss, wo du wohnst.»

Oliver mimt den russischen Stalker.
Oliver mimt den russischen Stalker.
Screenshot: YouTube

Natürlich nutze auch Vater Staat die Gesichtserkennung für seine Zwecke, leitet Oliver zum nächsten Aspekt über: 390'000 Abfragen habe die Bundespolizei FBI zwischen 2011 und 2019 durchgeführt, wobei die Bilder von 117 Millionen Amerikanern vorlägen – etwa durch die Führerausweise. Die Behörden beriefen sich darauf, mit der Technologie Gewalttaten verhindern zu können. «Aber die eigentliche Frage ist doch: Welchen Preis zahlt man dafür?»

«Eine ganz schön hinterhältige Art»

Der Moderator verdeutlicht dies mit einem Vergleich: «Wenn die Polizei garantieren könnte, jeden Raub zu verhindern, wenn ein Beamter in jedem Klo positioniert wird und zusieht, wenn man scheisst, bezweifle ich, dass alle zustimmen würden, ob es das wert ist. Oder man mag das – aber dann geht es nicht um das Verhindern von Verbrechen, sondern es hat andere Gründe.»

Die Gesichtserkennung drohe auch punkto «Black Lives Matter»-Bewegung eingesetzt zu werden, sagt Oliver und präsentiert ab Minute 4:34 einen Clip mit dem Senior Research Scientist von Google – Timnit Gebru ist ein gestandene Computerexpertin mit jugendlichem Aussehen, verlotterter Kleidung und jeder Menge Ahnung.

Nerd aus Berufung: Timnit Gebru ist Computer-Fachfrau.
Nerd aus Berufung: Timnit Gebru ist Computer-Fachfrau.
Screenshot: YouTube

Sie berichtet, die Polizei von Baltimore haben die Technik bei Demonstrationen eingesetzt, um Gesichter mit Social-Media-Bildern abzugleichen und ausstehende Haftbefehle durchzusetzen. Aktivisten würden mittlerweile dazu aufrufen, keine Bilder von Demonstrationen mehr auf Social Media zu veröffentlichen, weil diese von der Polizei gesichtet würden.

«Das ist eine ganz schön hinterhältige Art, die Versammlungsfreiheit zu untergraben», ärgert sich Oliver.

«Fuck off» in London

Wohin die Reise geht, zeigt ein Blick nach London, wo die Polizei schon mit flächendeckender Gesichtserkennung in ausgewiesenen Zonen experimentiert hat. Ab Minute 5:47 zeigt ein (sehenswerter) Film, wie ein Klischee von einem Londoner mit der Ordnungsmacht aneinandergerät, weil er den Pullover ins Gesicht zieht. Er wird angehalten, fotografiert, und es gibt Streit.

«Es ist auch ein kalter Tag», sagt der aufgebrachte Mann. «Ich habe ‹Fuck off!› gesagt und eine Busse von 90 Pfund bekommen.» Nicht nacherzählen lässt sich Olivers Intermezzo ab Minute 6:22, das erklärt, warum so verschiedene Typen wie jener Wut-Londoner und der Moderator selbst von derselben Insel stammen können.

Im Bild: die zwei Arten britischerMänner, die es laut John Oliver gibt.
Im Bild: die zwei Arten britischerMänner, die es laut John Oliver gibt.
Screenshot: YouTube

Autoritäre Staaten wie China haben natürlich ihre helle Freude an der neuen Technologie, heisst es ab Minute 7:10: Im grossen Stil gleicht das Reich der Mitte Daten ab, kann Personen orten und ihnen Autos oder Freunde zuweisen.

«Weisser Typ – kein Problem»

«Ein erschreckendes Level von Überwachung», warnt Oliver und zeigt ab Minute 7:42 einen Film über einen chinesischen Anbieter, der seine Gesichtserkennung «Skynet» nennt, weil der Chef «Terminator» so möge. Allerdings seien sie im Gegensatz zum Film-Skynet die Guten, gelobt der Vizepräsident treuherzig.

Dabei stecke die Technologie noch in den Kinderschuhen, obwohl sie bereits im Einsatz sei: Aktivisten haben bei Tests der britischen Polizei herausgefunden, dass nur acht von 42 Treffern «nachweislich korrekt» gewesen seien, zitiert Oliver eine entsprechende Meldung der »BBC».

Problem: Bei dunkler Hautfarne versagt die Gesichtserkennung öfter.
Problem: Bei dunkler Hautfarne versagt die Gesichtserkennung öfter.
Screenshot: YouTube

Ein Clip ab Minute 9:08 zeigt, dass die Software Männer besser unterscheiden kann als Frauen, und häufiger falsch liegt, sobald das Gesicht der Person dunkler wird. «Weisser Typ – kein Problem», endet der Film. «Weisser Typ – kein Problem – ich glaube, dass ist das inoffizielle Motto der Geschichte», kalauert Oliver.

Late Night USA – Amerika verstehen

50 Staaten, 330 Millionen Menschen und noch mehr Meinungen: Wie soll man «Amerika verstehen»? Wer den Überblick behalten will, ohne dabei aufzulaufen, braucht einen Leuchtturm. Die Late-Night-Stars bieten eine der besten Navigationshilfen: Sie sind die perfekten Lotsen, die unbarmherzig Untiefen bei Land und Leuten benennen und dienen unserem Autor Philipp Dahm als Komik-Kompass für die Befindlichkeit der amerikanischen Seele.

Bilder-Datenkrake Clearview AI

Zuletzt nimmt «Last Week Tonight» die Firma Clearview AI aufs Korn, die nichts anderes als eine grosse Bilder-Datenkrake ist: Drei Milliarden Fotos hat das Unternehmen angehäuft, die unter anderem bei den sozialen Netzwerken runtergeladen und in den USA bereits von 600 Ämtern genutzt wurden. «Strafverfolger können Bilder ins System laden und jedes Material finden, das öffentlich zugänglich ist und übereinstimmt», erklärt Gründer Hoan Ton-That ab Minute 12:45.

In einem kleinen Praxistest ab Minute 13:59 findet ein Reporter durch Clearview einen Schnappschuss von sich, «der aufgenommen wurde, als ich … 16 Jahre alt war!» Hoan Ton-That legt den Kopf schief, sagt «Wow» und lächelt so vielsagend, dass es Angst machen könnte.

Unheimlicher Hoan Ton-That: Noch nie hat wohl jemand «Wow!» gesagt und war dabei weniger überrascht.
Unheimlicher Hoan Ton-That: Noch nie hat wohl jemand «Wow!» gesagt und war dabei weniger überrascht.
Screenshot: YouTube

An diesem Punkt kann Oliver mit eigenen Erfahrungen auftrumpfen. «Hier ein Tipp: Wenn es peinliche Teenager-Foto von dir gibt, laufe nicht davor davon. Mach es zum Zentrum der PR-Kampagne für deine Fernsehshow und übernimm die Deutungshoheit! Nutze die Tatsache, dass deine Teenagerjahre ein hormonelles Stalingrad waren – mache den Schmerz nutzbar.»

Moral «von Tag zu Tag»

Wer aber keine TV-Show hat und nun weiss, dass seine Fotos mit guter Chance in den Händen von Clearview AI landet, solle doch ein Schild tragen, wenn er ein Bild von sich macht.

Vor allem wenn man hört, was Hoan Ton That ab Minute 17:25 sagt: Mit China, Russland, dem Iran oder Nordkorea würde er nie zusammenarbeiten.

Und was ist mit Ländern, die etwa Homosexualität unter Strafe stellten, wird er gefragt?

«Wir wollen sicherstellen, dass wir alles korrekt machen und fokussieren uns hauptsächlich auf die USA und Kanada. Aber um ehrlich zu sein, ist das Interesse überwältigend, so viel Interesse – wir entscheiden von Tag zu Tag.»

Da passt es ins Bild, dass Clearview seine Dienste bereits Staaten wie Saudi-Arabien oder den Vereinigten Arabischen Emiraten angeboten haben soll. Das alles seien Gründe, das Geschäft möglichst schnell zu regulieren, schliesst Oliver seine Begutachtung ab.

Bilder des Tages

Zurück zur Startseite