В Британии будут искоренять расовые предубеждения искусственного интеллекта
Правительственное Управление комиссара по информации (ICO) объявило о начале работ, в ходе которых намерено выяснить, проявляют ли системы искусственного интеллекта расовые предубеждения при рассмотрении заявлений о приеме на работу, пишет 14 июля газета The Guardian.
Подобная дискриминация, по мнению Управления, может иметь «разрушительные последствия для жизни людей» и привести к тому, что кому-то будет отказано в приеме на работу, в выдаче банковского кредита или социального пособия.
Генеральный директор ZipRecruiter, сайта занятости, сообщил The Guardian, что в этом году по меньшей мере три четверти всех резюме, поданных на вакансии в США, уже считываются алгоритмами. Опрос руководителей по подбору персонала, проведенный исследовательской и консалтинговой фирмой Gartner в прошлом году, показал, что почти все они сообщили об использовании ИИ для части процесса подбора и найма — например, для проверки заявок до того, как их увидит соответствующий эксперт по кадрам.
Газета напоминает, что в соответствии с Общим регламентом Великобритании по защите данных, выполнение которого контролирует ICO, люди имеют право на недискриминационный подход при обработке своих данных. В прошлом ICO предупреждала, что системы, управляемые искусственным интеллектом, могут привести к результатам, которые поставят в невыгодное положение определенные группы, если они не будут представлены точно или справедливо в наборе данных, на котором обучается и тестируется алгоритм.
Закон Великобритании о равенстве 2010 года также обеспечивает отдельным лицам защиту от дискриминации, независимо от того, вызвана ли она человеком или автоматизированной системой принятия решений.
Доктор Дэвид Лесли, директор по исследованиям в области этики в Институте Алана Тьюринга, подчеркивает: «Использование моделей искусственного интеллекта в процессах подбора персонала поднимает множество острых этических вопросов, которые требуют продуманности и тщательной оценки как со стороны разработчиков систем, так и со стороны поставщиков».
«По сути, прогностические модели, которые можно было бы использовать для фильтрации заявок на работу с помощью методов контролируемого машинного обучения, рискуют воспроизвести или даже усилить модели дискриминации и структурного неравенства, которые могут быть включены в наборы данных, используемые для их обучения».