Apple удалила упоминания системы поиска запрещённых фото детей со своего сайта
Apple без лишней шумихи убрала все упоминания о функции обнаружения на своих устройствах изображений, содержащих сцены жестокого обращения с детьми (CSAM), со своей веб-страницы, посвящённой безопасности детей. Предполагается, что спорный план компании по сканированию всех изображений на iPhone и iPad на предмет запрещённых фотографий может быть остановлен после волны критики в адрес компании.
Источник изображения: MacRumors
В августе Apple объявила о планах по внедрению новых функций для обеспечения безопасности детей, включая сканирование пользовательских фотографий на iPhone и iPad на предмет наличия материалов, содержащих изображения насилия над детьми, а также функции, направленные на определение отправки или получения детьми изображений откровенного характера и оповещение об этом родителей. Эти меры подверглись критике со стороны широкого круга лиц и организаций, включая авторитетных исследователей безопасности, политиков, правозащитников и некоторых сотрудников Apple.
Первоначально Apple пыталась развеять опасения, связанные с новыми функциями безопасности, и успокоить пользователей, опубликовав ответы на часто задаваемые вопросы, касающиеся этих возможностей. Однако, несмотря на усилия Apple, разногласия не утихли. Компания в конечном итоге запустила функцию, которая определяет получение и отправку изображений откровенного характера, но решила отложить внедрение технологии поиска изображений, содержащих сцены насилия над детьми, в пользовательских библиотеках iCloud.
Apple заявила, что её решение отложить запуск функции было обусловлено отзывами клиентов, правозащитников и других деятелей. Компания говорит, что намерена выделить дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти важные для защиты безопасности детей функции. Это заявление было добавлено на веб-страницу Apple, посвящённую безопасности детей, но теперь оно исчезло вместе с любыми упоминаниями о CSAM.