Téměř devět měsíců poté, co Apple potvrdil, že nevydá funkci pro detekování materiálu obsahující sexuální zneužívání dětí (CSAM) pro Fotky na iCloudu, společnost konečně přiznala chybu, na kterou mnozí v té době upozorňovali.



Společnost vysvětlila důvod, proč se rozhodla nevydat tuto funkci ve vyjádření pro Wired. Poprvé jsme se o plánech Apple dozvěděli, když unikly několik týdnů předtím, než je společnost v srpnu 2021 oficiálně oznámila. Odborník na kryptografii a bezpečnost Matthew Green zveřejnil plány na Twitteru a uvedl, že to je velmi špatný nápad. I po oznámení pokračovali bezpečnostní experti ve vyjadřování obav, stejně jako mnoho zaměstnanců Apple. Společnost Apple reagovala jak veřejně, tak i mimo veřejnost, než oznámila, že plány na zavedení této funkce byly pozastaveny. Poté jsme dlouho neslyšeli nic, a uplynul rok, než společnost konečně řekla, že tuto funkci nevydá.

Apple se pokusil řešit některé z vyjádřených obav, ale největší problém zůstal nevyřešený: Možnost zneužití této funkce vládami. Jak jsme tehdy poznamenali, digitální otisk lze vytvořit pro jakýkoli druh materiálu, nejen pro CSAM. Nic nebrání vládě v přidávání obrázků politických plakátů nebo podobných materiálů do databáze. Nástroj navržený pro cílení na vážné zločince by mohl být snadno upraven tak, aby detekoval ty, kdo se postaví proti vládě nebo některé z jejích pravidel. Apple, který by od vlád obdržel databázi digitálních otisků, by se tak nevědomky podílel na potlačování politických aktivistů nebo dokonce na horších věcech. V prohlášení pro Wired Apple nyní tento problém uznává.