Neues iOS-Feature Forscher entdeckten erste Probleme bei Kinderpornografie-Scan von Apple

Dirk Jacquemien

19.8.2021

Der holprige Start von Apples System zur Erkennung von Kinderpornografie setzt sich fort.
Der holprige Start von Apples System zur Erkennung von Kinderpornografie setzt sich fort.
Getty Images

Eigentlich sollte Apples neues Feature zur Erkennung von Kinderpornografie erst zusammen mit iOS 15 kommen. Doch ein Sicherheitsforscher hat es bereits auf gegenwärtigen iOS-Versionen entdeckt. Und erste Probleme sind auch schon aufgetaucht.

Dirk Jacquemien

19.8.2021

Spuren von Apples kontroversem Feature zur Erkennung von kinderpornografischem Material auf iPhones sind bereits auf aktuellen Versionen von iOS vorhanden, wie «Vice» berichtet. Der Sicherheitsforscher Asuhariet Ygvar entdeckte den Code für «NeuralHash», wie Apple sein System zum Abgleich von Bildern nennt, in iOS 14.3 versteckt.

Warum der Code schon in iOS eingebaut war, ist unklar. Aktivieren will Apple die Funktion erst mit dem für nächsten Monat erwarteten iOS 15. Bürgerrechtsorganisationen hatten sie scharf kritisiert und Sicherheitsforscher*innen äusserten Zweifel an der Umsetzung. Erste Anzeichen für Lücken in Apples System wurden nun schon vor dessen Lancierung bekannt.

So soll das System funktionieren

Von jeder Fotografie lässt sich als ein normalerweise einzigartiger Hash, eine alphanumerische Ziffernfolge, erstellen.«NeuralHash» vergleicht die Hashes von bekannten kinderpornografischen Bildern mit Hashes, die aus auf dem iPhone gespeicherten Fotos erzeugt werden.

Gibt es mehr als 30 Übereinstimmungen, wird das an Apple gemeldet, da der/die iPhone-Besitzer*in in diesem Fall mutmasslich eine Sammlung von kinderpornografischen Material auf dem Gerät hat. Dann wird noch von menschlichen Apple-Mitarbeiter*innen geprüft, ob es sich wirklich um Missbrauchsdarstellungen handelt, bevor der Fall an Kinderschutzorganisationen und Behörden weitergeleitet wird.

Bildabgleich lässt sich austricksen

Doch weiteren Sicherheitsforscher*innen ist es schon wenige Stunden nach der Offenlegung des «NeuralHash»-Codes durch Ygvar gelungen, Wege zu entwerfen, mit denen das System ausgetrickst werden könnte. Dies erfolgte mittels einer «Hash-Kollision», bei der zwei völlig unterschiedliche Bilder denselben Hash haben — das Apple-System würde also denken, sie seien identisch.

Mit entsprechender technischer Kenntnis könnten also absichtlich Fotos generiert werden, die zu einer solchen Hash-Kollision führen. Theoretisch könnte man dann in böser Absicht harmlose Bilder an andere schicken, die iOS als Kinderpornografie identifiziert und dann den/die iPhone-Besitzer*in anschwärzen würden.

Apple: Alles nicht so schlimm

Apple sagt, der von Ygvar entdeckte NeuralHash-Code sei nur eine «generische Version», im fertigen iOS 15 werde ein spezifischer Algorithmus verwendet, der anderes geartet sei. Ausserdem würde es auf den Apple-Servern noch einen zweiten, automatischen Check geben.

In der Praxis wäre ein solcher Angriff aber in jedem Fall schwer durchführbar. Zum einen muss man natürlich erstmal Zugriff zu echtem kinderpornografischen Material haben, um zu wissen, wie der Hash eines entsprechenden Bildes lautet. Und zweitens gibt es ja ganz am Ende noch die menschliche Überprüfung bei Apple, die noch durchlaufen werden muss, falls das System vermeintlich kinderpornografisches Material entdeckt.

Spätestens hier würde dann die Täuschung auffallen. Das alles setzt allerdings voraus, dass man Apple vertraut. Der endgültige «NeuralHash»-Algorithmus soll offengelegt und von Sicherheitsforscher*innen überprüft werden können, so Apple. Wie das genau in der Praxis funktionieren soll, ist allerdings noch unklar.