V roce 2021 Apple oznámil řadu nových funkcí pro bezpečnost dětí, včetně detekce materiálu pro sexuální zneužívání dětí (CSAM) pro Fotky na iCloudu. Tento krok byl však kritizován kvůli obavám o soukromí.



Poté, co byl na dobu neurčitou pozastaven, Apple nyní potvrdil, že zrušil své plány na zavedení systému detekce CSAM. Ve stejný den, kdy společnost oznámila pokročilou ochranu dat s end-to-end šifrováním pro všechna data na iCloudu, také ukončila nikdy nevydanou detekci CSAM. Zprávu potvrdil viceprezident softwarového inženýrství společnosti Apple Craig Federighi v rozhovoru s Joannou Sternovou z WSJ.

Když byla oznámena detekce CSAM, Apple uvedl, že funkce bude schopna detekovat nevhodný materiál ve fotkách uživatelů na základě databáze obrázků CSAM. Tímto způsobem by společnost byla schopna detekovat takové fotografie pomocí zpracování na zařízení, aniž by kdy musela vidět fotografie uživatelů. I tak ale detekce CSAM byla velmi kritizována ze strany uživatelů. Ukazuje se, že Apple se nyní rozhodl, že je lepší funkci ukončit. Za zmínku však stojí, že v iOS jsou stále k dispozici další funkce pro bezpečnost dětí, jako jsou omezení iMessage.