Apple отложила развёртывание своей технологии обнаружения сексуального насилия над детьми (CSAM). Эта технология должна была сканировать фотографии пользователей в iCloud на предмет наличия соответствующих снимков. Планы Apple жёстко раскритиковали самые разные люди.
Люди активно подписывали письма с требованием отказаться от этой технологии. В итоге Apple заявила сегодня изданию TechCrunch:
Данная функция должна была появиться в iOS 15, выход которой ожидается в ближайшее время.
© Ferra.ru