Правительство США опубликовало билль об этичности искусственного интеллекта
Документ, описывающий основные принципы создания этичного искусственного интеллекта (ИИ), был опубликован 4 октября на официальном сайте Белого дома.
Проблема прозрачности алгоритмов, используемых системами на основе ИИ, является резонансной в последнее время. Общественное мнение требует обезопасить конечных пользователей от возможной дискриминации и злоупотребления персональными данными со стороны ИИ. Недавно Китай принял ряд законов, вынуждающих крупных гигантов китайского IT-рынка раскрывать свои алгоритмы. Их примеру теперь следуют США.
В документе говорится, что проблемы, которые не должны возникать при обработке ИИ, хорошо известны: нестабильности в системах ухода за пациентами, дискриминация в системах найма, кредитования, страхования.
Проект предлагает следующие пять принципов формирования систем.
1. Безопасность и эффективность. Подразумевается защита от злоупотребления данными и защита от нанесения вреда пользователям системы, если такой вред можно предсказать.
2. Алгоритмическая защита от дискриминации. Система должна быть спроектирована и использована справедливо.
3. Конфиденциальность данных. Встроенные в систему средства безопасности должны защищать пользователей от утечки данных и позволять им распоряжаться тем, как эти данные используются.
4. Уведомление и объяснение. Люди должны быть проинформированы о том, как работает система и как она помогает им достичь их целей.
5. Человеческие альтернативы. Автоматизированные сервисы должны включать возможность обращения к человеку вместо ИИ.
«Проект Билля о правах в области искусственного интеллекта — это руководство для общества, которое защищает всех людей от этих угроз и использует технологии таким образом, чтобы укрепить наши высшие ценности», — заявлено в документе.
Однако после закона, принятого в Китае, данный проект выглядит скорее как попытка держаться в тренде мировых правозащитных течений. Он, так же как и китайский вариант, направлен на регулирование процесса взаимодействия крупных IT-корпораций и пользователей их продуктов, но никак не затрагивает, например, сбор и распознавание биометрии граждан в пользу государства или использование ИИ в военных целях.