Apples ursprünglicher Plan traf auf massive Kritik
Apple hatte vor rund zwei Jahren ein CSAM-Erkennungs-Tool vorgeschlagen, das iCloud-Fotos direkt beim Upload prüfen sollte. Dafür wären die Fotos auf iPhones mit einer Datenbank abgeglichen werden, die die Hashes von durch verschiedene Organisationen dokumentiertem Missbrauchsmaterial enthält. Ab circa 30 Treffern hätte das Betriebssystem dann Apple-Mitarbeiter informiert. Diese hätten einem Whitepaper zufolge dann eine niedrig aufgelöste Version des Bildmaterials entschlüsseln und einsehen können. Im Fall von tatsächlichem Missbrauchsmaterial sollten die Apple-Mitarbeiter in den USA dann die Organisation NCMEC zuschalten, die wiederum Strafverfolger informieren kann.
Apple argumentierte ursprünglich, dieser Ansatz sei datenschutzfreundlicher als das bei anderen Anbietern bereits gängige CSAM-Scanning in der Cloud. Das Vorhaben wurde derart massiv von Bürgerrechtlern, Sicherheitsforschern ebenso wie von Kunden und Kinderschutzorganisationen kritisiert, dass
Apple es zuerst aufschob und dann – Ende des Jahres 2022 – nach eigener Angabe komplett auf Eis gelegt hat.
"Das Scannen nach einer Art von Inhalt öffnet die Tür für Massenüberwachung und könnte das Begehren wecken, andere verschlüsselte Messaging-Systeme quer durch Inhaltstypen und Kategorien zu durchsuchen", führt Apples Datenschutzchef nun ins Feld und übernimmt damit einen der meist geäußerten Kritikpunkte an Apples ursprünglichem Vorhaben. Solche Scanning-Systeme arbeiten zudem nicht fehlerfrei und es gebe "dokumentierte Beweise von anderen Plattformen", dass dadurch auch unschuldige Nutzer, die nur "völlig normale Fotos ihrer Babys teilen", zu "Opfern dystopischer Rasterfahndungen" werden können, schreibt Neuenschwander.