Feature gegen Kinderpornografie Apple stellt Nutzer unter Generalverdacht

Von Dirk Jacquemien

9.8.2021

Dieses Versprechen hat Apple gebrochen.
Dieses Versprechen hat Apple gebrochen.
Getty Images

Eine neue Funktion für iOS 15 scannt direkt auf dem iPhone nach kinderpornografischen Inhalten. Doch Expert*innen sind entsetzt und sagen, dass Apple damit ein neues Zeitalter der Massenüberwachung einleite.

Von Dirk Jacquemien

9.8.2021

«Was auf deinem iPhone passiert, bleibt auf deinem iPhone.» Dieses absolute Versprechen gab Apple 2019 auf Werbeplakaten ab. In der öffentlichen Selbstdarstellung kontrastierte sich der iPhone-Hersteller immer und immer wieder mit Konkurrenten wie Google oder Facebook, die es ja nur auf die Daten ihrer Nutzer*innen abgesehen hätten.

Doch was Apple nun vorhat, ist beispiellos. Ab iOS 15 sollen iPhones verdachtsunabhängig auf dem Gerät gespeicherte Fotos auf Illegalität überprüfen. Damit soll «Child Sexual Abuse Material» (CASM), also bildliche Darstellungen von sexuellem Missbrauch an Kindern, umgangssprachlich Kinderpornografie genannt, identifiziert werden.

Was nach einem Vorhaben erscheint, gegen das kaum ein anständiger Mensch Bedenken anmelden könnte, löst bei Datenschutzexpert*innen blankes Entsetzen aus. Mit den Plänen öffne Apple die Büchse der Pandora, sagen sie.

Drei Funktionen zum Kinderschutz

Ende letzter Woche kündigte Apple drei neue Funktionen für iOS 15 an, die dem Schutz von Kindern dienen sollen. Zwei davon sind unkontrovers. Zum einen bietet Siri nun mehr Hilfestellungen, wenn Nutzer*innen etwa nach Anlaufstellen für Opfer von sexuellem Missbrauch suchen.

Zum zweiten gibt es in iOS 15 ein optionales Feature, das Eltern auf den iPhones ihrer unter 12 Jahre alten Kinder aktivieren können. Erhält oder verschickt das Kind ein pornografisches Foto über iMessage, werden die Eltern darüber informiert.

Das dritte neue Feature hat allerdings heftige Reaktionen ausgelöst. Kinderschutzorganisationen loben Apple für sein Engagement zum Schutz von Kindern gegen Missbrauch. Doch Bürgerrechtsgruppen sehen die «CSAM-Erkennung» als einen fatalen ersten Schritt an, der Regierungen ganz neue Möglichkeiten zur Massenüberwachung auf dem Serviertablett liefere.

Kinderpornografie wird automatisch erkannt

Bei der CSAM-Erkennung werden Bilder direkt auf dem iPhone gescannt. Für diesen Scan werden natürlich keine echten kinderpornografischen Bilder auf die iPhones der Nutzer*innen geschickt, um dort einen Vergleich vorzunehmen. Stattdessen setzt Apple auf eine Datenbank von Hashes der amerikanischen Stiftung National Center for Missing and Exploited Children (NCMEC).

Aus jeder Fotografie lässt sich eine individuelle Signatur aus alphanumerischen Ziffern, einen Hash, erzeugen. Das NCMEC hat eine Datenbank mit Hashes von kinderpornografischen Bildern, die im Zuge von Strafverfahren beschlagnahmt wurden. Der intensive Austausch von Fotos ist natürlich Kernmerkmal der Pädokriminellen-Szene, sodass ein Grossteil der im Umlauf befindlichen Bilder den Behörden bereits bekannt sind und damit durch den CSAM-Scan identifiziert werden können.

Auch verschiedene Versionen des gleichen Bildes, etwa mit einer anderen Auflösung oder in einem anderen Dateiformat, soll das System erkennen. Nicht erkannt werden aber neue, dem NCMEC bisher unbekannte Missbrauchsfotos und harmlose Schnappschüsse, die iPhone-Besitzer*innen vielleicht von ihren Kindern beim Spielen in der Badewanne aufgenommen haben.



«Schwellenwert» muss erreicht werden

Gibt es nun einen Treffer, das heisst der Hash eines auf dem iPhone gespeicherten Bild entspricht dem Hash eines bekannten kinderpornografischen Fotos, passiert erstmal nichts. Denn das System hat auch noch einen «Schwellenwert», der erst erreicht werden muss, bevor es Meldung erstattet. Apple sagt nicht, wie hoch dieser Schwellenwert ist, aber es bedeutet zumindest, dass ein einziges kinderpornografisches Bild auf dem iPhone noch keine Meldung auslöst.

Wird aber der unbekannte Schwellenwert überschritten, erfolgt zunächst eine Meldung an Apple. Nur wenn es sich dann wirklich um kinderpornografische Bilder handelt und es keinen Fehler im System gab, wird dies an das NCMEC weitergeleitet, das dann natürlich seinerseits die Strafverfolgungsbehörden einschalten kann.

Facebook oder Google setzen die Technik bereits jetzt ein, um auf ihren Plattformen hochgeladene kinderpornografische Inhalte zu identifizieren. Völlig neu an Apples Ansatz ist jedoch, dass Bilder auf den Privatgeräten der Nutzer*innen durch diese Privatgeräte selbst durchsucht werden. Das ist in etwa so, als würde das eigene Tagebuch mitlesen und seine Besitzer*innen bei der Polizei verpfeifen, wenn dort etwas Unlauteres niedergeschrieben wurde.


Unrechtsstaaten läuft das Wasser im Mund zusammen

Die Sorge von Kritiker*innen bezieht sich denn auch weniger auf die aktuelle Funktionalität, sondern auf potenzielle zukünftige Anwendungen. Die Technologie könnte natürlich ebenso gut zum Erkennen ganz anderer Arten von Bilder eingesetzt, beispielsweise regierungskritische Poster oder Zeichnungen vom Cartoonbär Winnie the Puuh.

Denn eine bereits existierende Technik erweckt natürlich Begehrlichkeiten. In einem Frage-und-Antwort-Katalog fragt sich Apple selbst, ob Regierungen es dazu zwingen könnte, auch die Hashes von andere Arten von Bildern in das System aufzunehmen.

«Apple wird sich solchen Forderungen widersetzen», behauptet das Unternehmen dort. Aber dieses Versprechen kann Apple gar nicht abgeben und wie beim Werbeplakat sollten sich Nutzer*innen auch nicht darauf verlassen. Apple kann nicht vorhersagen, wie die politische und rechtliche Umstände in seinen Hauptmärkten in einigen Jahren sein werden.

Apple gab China schon oft nach

Es ist zum Beispiel gut vorstellbar, dass etwa China das Scannen nach Bildern, die die «nationale Sicherheit» gefährden, gesetzlich vorschreiben wird. Dass ausgerechnet Apple, das wie kaum ein anderes westlichen Unternehmen vom Gutdünken der chinesischen Regierung abhängig ist und immer und immer wieder den Forderungen der dortigen Führung nachgegeben hat, sich hier «widersetzen» würde, erscheint wenig glaubhaft.

Die digitale Bürgerrechtsgruppe Electronic Frontier Foundation spricht von einem «schockierende Kurswechsel für Nutzer*innen, die auf Apples Führung bei Sicherheit und Datenschutz vertraut hatten». Und knapp 5500 Sicherheitsforscher*innen und Datenschutzaktivist*innen haben Apple in einem offenen Brief bereits aufgefordert, die Pläne aufzugeben.