Исследователи предупредили о групповой ИИ-дезинформации в интернете

О появлении в интернете нового поколения дезинформации, распространяемой так называемыми роями ИИ, заявила международная исследовательская группа, опубликовавшая результаты своего исследования 23 января в журнале Science.
По словам экспертов, речь идет об управляемых ИИ флотах, способных адаптироваться в режиме реального времени, внедряться в различные группы и создавать видимость всеобщего согласия. Хор, казалось бы, независимых голосов создает иллюзию широкого общественного согласия, в то время как в действительности распространяет дезинформацию.
Анализ исследовательской группы показывает, что главная опасность заключается не только в ложной информации, но прежде всего в искусственном консенсусе: создаваемом ложном впечатлении, что большинство согласно с чем-то. Такая иллюзия может влиять на убеждения и нормы, даже если отдельные утверждения оспариваются. Это устойчивое влияние, утверждают исследователи, может привести к глубоким культурным изменениям, выходящим за рамки простых сдвигов в нормах, незаметно изменяя язык, символы и идентичность сообщества.
«Опасность заключается уже не только в фейковых новостях, но и в том, что основа демократического дискурса — независимые голоса — рухнет, если один субъект сможет контролировать тысячи уникальных профилей, сгенерированных искусственным интеллектом», — заявил Йонас Р. Кунст из Норвежской школы бизнеса BI, один из ведущих авторов статьи в журнале Science.
Отмечается, что рои искусственного интеллекта могут также загрязнять обучающие данные обычного искусственного интеллекта, наводняя интернет ложными утверждениями. Таким образом, они могут распространить свое влияние на уже существующие платформы ИИ.
Исследователи предупреждают, что эта угроза не является чисто теоретической: анализы показывают, что подобная тактика уже применяется.
Исследователи определяют вредоносный рой ИИ как группу управляемых ИИ субъектов, которые сохраняют устойчивые идентификаторы и обладают памятью, координируют свои действия вокруг общих целей и меняют тон и содержание своих сообщений. Они адаптируются к взаимодействиям и ответам людей в режиме реального времени, требуют минимального контроля со стороны человека и могут быть развернуты на разных платформах. По сравнению с предыдущими ботнетами, такие рои может быть сложнее обнаружить, поскольку они генерируют гетерогенный, контекстно-зависимый контент, при этом действуя скоординированным образом.
«Помимо обмана или безопасности отдельных чат-ботов, нам необходимо изучить новые опасности, возникающие в результате взаимодействия множества субъектов искусственного интеллекта», — сказал профессор университета Констанца Давид Гарсия, который также принимал участие в исследовании.
Вместо модерации отдельных сообщений исследователи выступают за защитные меры, отслеживающие скоординированное поведение и происхождение контента: выявление статистически маловероятных закономерностей координации, предоставление вариантов проверки при соблюдении конфиденциальности данных и обмен информацией о влиянии ИИ через распределенные центры мониторинга.
В то же время исследователи рекомендуют снизить стимулы, ограничив монетизацию фиктивных взаимодействий и повысив ответственность.
(теги пока скрыты для внешних читателей)