![158e753dc9641af29342c54951b64ba32418ee1c](https://www.ferra.ru/imgs/2021/09/03/13/4868661/158e753dc9641af29342c54951b64ba32418ee1c.jpg)
Apple отложила развёртывание своей технологии обнаружения сексуального насилия над детьми (CSAM). Эта технология должна была сканировать фотографии пользователей в iCloud на предмет наличия соответствующих снимков. Планы Apple жёстко раскритиковали самые разные люди.
Люди активно подписывали письма с требованием отказаться от этой технологии. В итоге Apple заявила сегодня изданию TechCrunch:
Данная функция должна была появиться в iOS 15, выход которой ожидается в ближайшее время.
© Ferra.ru