Apple v tichosti odstranil všechny zmínky o CSAM ze své webové stránky Child Safety, což naznačuje, že jeho kontroverzní plán na kontrolování knihoven fotografií na iPhonech a iPadech dětí může být ohrožen po výrazné kritice jeho metod.



Společnost Apple v srpnu oznámila plánovanou sadu nových funkcí pro bezpečnost dětí, včetně skenování uživatelských knihoven fotografií na iCloudu na obsah materiálů se sexuálním zneužíváním dětí (CSAM), bezpečnost komunikace, která má varovat děti a jejich rodiče při přijímání nebo odesílání sexuálně explicitních fotografií, a rozšířené pokyny týkající se sexuálního zneužívání dětí. Po jejich oznámení byly tyto funkce kritizovány širokou škálou organizací, včetně bezpečnostních výzkumníků, informátora ochrany soukromí Edwarda Snowdena, politických skupin, univerzitních výzkumníků a dokonce i některých zaměstnanců Apple.

Většina kritiky byla směřována na detekci CSAM na zařízení, kterou výzkumníci kritizovali za to, že se spoléhala na nebezpečnou technologii, která hraničila se sledováním, a že je neúčinná při identifikaci obrázků sexuálního zneužívání dětí. Apple se zpočátku pokoušel uklidnit uživatele zveřejněním podrobných informací, sdílením často kladených otázek, různých nových dokumentů, rozhovorů s vedením společnosti a dalšími. Nakonec se společnost rozhodla odložit zavedení CSAM po přívalu kritiky, kterou zjevně nepředpokládala. Nyní funkce zmizela spolu se všemi zmínkami o ní, je tedy možné, že se Apple rozhodl ji nakonec nevydat.