Systém měl chránit soukromí tím, že porovnával pouze jedinečné hashe obrázků, aby zjistil, zda se shodují s jedinečnými hashi známých CSAM (Child Sexual Abuse Material). Přesto byl obhájci soukromí ostře kritizován jako systém, který by mohl být zneužit například státními subjekty, které by společnost Apple nutily vyhledávat snímky disidentů. Někteří odborníci na bezpečnost dětí se také domnívali, že systém není dostatečně robustní, protože dokáže porovnávat pouze snímky ze známé databáze, nikoli nově vytvořené CSAM.
Společnost Apple tuto část svých funkcí pro bezpečnost dětí odložila a poté v prosinci loňského roku potvrdila, že projekt v tichosti ukončila. Místo toho společnost Apple uvedla, že se zaměří na bezpečnostní funkce, které běží v zařízení a chrání děti před predátory, spíše než na vývoj systému, který skenuje obrázky iCloud.
Nyní se společnost Apple ocitla v situaci, kdy toto rozhodnutí obhajuje a opakuje své předchozí zdůvodnění.
Skupina pro bezpečnost dětí nazvaná Heat Initiative tvrdí, že organizuje kampaň s cílem vyvinout tlak na společnost Apple, aby „odhalila, nahlásila a odstranila“ snímky sexuálního zneužívání dětí z iCloudu. Společnost Apple na tento vývoj reagovala v prohlášení pro Wired. Společnost v podstatě uvedla stejný argument jako v prosinci loňského roku: V tomto případě je třeba bojovat proti CSAM, ale skenování online fotografií vytváří systémy, které mohou být zneužity k narušení soukromí všech uživatelů.
Skenování soukromě uložených dat každého uživatele iCloudu by vytvořilo nové vektory hrozeb, které by zloději dat mohli najít a využít… Také by to vneslo potenciál pro kluzký svah nezamýšlených důsledků. Například skenování jednoho typu obsahu by otevřelo dveře hromadnému sledování a mohlo by vyvolat touhu prohledávat další systémy šifrovaných zpráv napříč typy obsahu.
Erik Neuenschwander, ředitel společnosti Apple pro ochranu soukromí uživatelů a bezpečnost dětí.
Stručně řečeno, společnost Apple přiznává (opět) to, co komunita obhájců soukromí říkala, když byla funkce skenování iCloud CSAM poprvé oznámena: Neexistuje žádný způsob, jak ji zprovoznit, aniž by se zároveň nevytvořily systémy, které mohou ohrozit bezpečnost a soukromí všech.
Jedná se pouze o nejnovější vrásku v odvěké debatě o šifrování. Jediným způsobem, jak plně ochránit soukromí uživatelů, je šifrovat data způsobem, který nikdo může „nahlížet“ nikdo jiný než uživatel nebo příjemce. To chrání jak nevinné, tak zločince, takže se proti tomu přirozeně staví skupiny prosazující právo, zpravodajské agentury a další organizace, z nichž každá má své vlastní důvody, proč chce prohledávat uživatelská data.
Společnost Apple se domnívá, že prevence CSAM a dalších forem zneužívání dětí je nesmírně důležitá, ale musí být prováděna způsobem, který společnosti Apple (ani jiným skupinám) neumožňuje žádným způsobem nahlížet do uživatelských dat. Detekce a skrývání nahých snímků přímo v zařízení je jednou z takových funkcí, kterou společnost Apple v posledních několika letech rozšiřuje pomocí aktualizací operačního systému.