Apple отложила запуск поиска детского порно на устройствах пользователей
Запуск технологии NeuralHash по поиску изображений с детской порнографией в устройствах Apple отложен, 3 сентября сообщила пресс-служба компании.
Причиной стала негативная реакция как пользователей, так и правозащитных организаций. «Основываясь на реакции пользователей, правозащитных организаций, исследователей и других, мы приняли решение потратить дополнительное время для сбора вводных данных и улучшения [технологии] в ближайшие несколько месяцев, прежде чем запускать эти критически важные меры безопасности», — говорится в опубликованном сообщении.
Технология должна была попасть на устройства пользователей компании и начать работать вместе с обновлениями операционных систем iOS 15, iPadOS 15, watchOS 8 и macOS Monterey.
Напомним, ранее в компании Apple заявили о намерении осуществлять на устройствах пользователей поиск изображений внесенных в базу CSAM (child sexual abuse material), где содержатся материалы сексуального насилия над детьми.
Для этого на устройствах пользователей будет вычисляться «цифровой слепок» фотографии и отправляться в сеть, для сверки с записями базы CSAM. В случае обнаружения запрещенных фотографий Apple заблокирует учетную запись пользователя и передаст информацию НКО Национальный центр по пропавшим без вести и эксплуатируемым детям (NCMEC).
Читайте также: В Apple пришлось пояснять, как ударит борьба с детским порно по приватности
Отметим, технология поиска запрещенной детской порнографии не нова и уже давно применяется, например, на серверах Microsoft или Facebook и Twitter. Однако она в отличие от технологии Apple, начинает работать лишь тогда, когда пользователь выгружает фотографии в социальную сеть или в сетевые хранилища.