Nyní je tomu více než rok, co Apple oznámil plány na tři nové funkce pro bezpečnost dětí, včetně systému pro detekci explicitních fotografií (CSAM) uložených ve Fotkách na iCloudu, možnost rozmazat sexuálně explicitní fotografie v aplikaci Zprávy a zdroje pro Siri.



Poslední dvě funkce jsou nyní k dispozici, ale Apple o svých plánech na vydání funkce detekce CSAM mlčí. Apple původně uvedl, že detekce CSAM bude k dispozici v iOS 15 a iPadOS 15 do konce roku 2021, ale společnost nakonec tuto funkci odložila na základě zpětné vazby od zákazníků, výzkumníků a dalších. V prosinci 2021 Apple odstranil  všechny odkazy na tuto funkci ze své stránky Child Safety, ale mluvčí Applu informoval The Verge, že Apple má v plánu tuto funkci stále v plánu vydat. Pokud je nám známo, Apple se od té doby k plánům veřejně nevyjádřil.