Ученые объяснили, в чем опасность системы обнаружения CSAM от Apple
Система обнаружения материалов о сексуальном насилии над детьми (CSAM — child sexual abuse material) в онлайн-сервисах, подобная той, которую разрабатывает компания Apple для своих устройств, может быть опасной, заявили исследователи в Принстонском университете (США), 20 августа сообщает издание Engadget.
Доцент Джонатан Майер и аспирант Анунай Кулшреста рассказали, что разрабатывали систему выявления подобного контента в онлайн-сервисах со сквозным шифрованием, не нарушающую конфиденциальность пользователей. То есть аналог разработки Apple.
Ученым после тщательного изучения вопроса удалось создать рабочий прототип такой системы. Однако после этого они обнаружили в ней серьезный неустранимый недостаток. Путем замены базы данных систему можно было работать в качестве инструмента цензуры и слежки.
При этом сами алгоритмы таковы, что невозможно сделать так, чтобы они работали только с контентом CSAM, всегда остается возможность для перестройки системы на любой другой контент.
Исследователи напоминают, что подобные алгоритмы уже обнаруживались в китайском мессенджере WeChat, где они работали над выявлением материалов диссидентов. При этом Apple, по мнению ученых, не сможет отказать китайскому правительству в том, чтобы перепрофилировать систему для выявления неблагонадежных политических материалов.
Другой важной опасностью системы поиска CSAM является то, что она может допускать ложноположительные срабатывания, поэтому злоумышленник может потенциально направить ее против невиновных людей.
Ученые признают, что система Apple более совершенна, чем созданная ранее ими, но их смущает то, что Apple не дает ответов на поднятые ими трудные вопросы.