Москва. 3 сентября. — Apple сообщила, что отложит выпуск инструментов для проверки iPhone на наличие изображений с детской порнографией на фоне опасений по поводу того, что новый софт может создать для пользователей более масштабные риски в сфере защиты персональных данных. Сообщение компании цитирует Apple Insider.
В письмах к журналистам компания объяснила, что это реакция на критику ее плана, о котором было объявлено в августе.
Apple планировала запустить систему, которая способна распознавать изображения с детской порнографией, а затем оповещать компанию, если подобные изображения были загружены в облачный сервис iCloud, через обновление программного обеспечения iPhone.
Apple утверждает, что программа не нарушает законодательство о защите персональных данных и что другие провайдеры облачных сервисов, стремящиеся не допустить наличие подобных изображений, используют технологию, которая сканирует все данные пользователей, в то время как Apple нашла способ анализировать только тот контент, который подпадает под понятие запрещенного. Система Apple не будет маркировать подобным образом контент, который не был загружен в облачный сервис.
Эксперты в области персональных данных опасаются, что новая система свидетельствует об ослаблении требований Apple в сфере защиты данных, пишет The Wall Street Journal.
«С учетом отзывов клиентов, правозащитных организаций, исследователей и других заинтересованных лиц, мы решили взять дополнительное время в течение ближайших месяцев, чтобы собрать информацию и внести улучшения перед тем, как выпустить эти крайне важные инструменты для безопасности детей», — говорится в сообщении Apple. При этом компания не уточняет, когда станут доступны эти обновления.