«Подхалимство» чат-ботов мешает людям разрешать конфликты — исследование


Популярные модели чат-ботов часто стараются угодить пользователям, и такое «подхалимство» мешает людям критически оценивать конфликты и разрешать их, говорится в исследовании Стэнфордского университета и Университета Карнеги — Меллона, пишет 31 октября газета South China Morning Post.
Исследователи проверяли 11 моделей, в том числе одну французскую, две китайские и восемь, разработанных в США. Ботов просили оценить конфликтные ситуации, опубликованные на развлекательном сайте Reddit. Отбирались те случаи, когда большинство участников чатов осуждали действия рассказчика.
«Чемпионами» в одобрении неоднозначных действий стали модели из Китая: Qwen2.5-7B-Instruct оправдывала поступки в 79% случаев, а DeepSeek V3 — в 76%. Лучший показатель был у Gemini 1.5 от Google — 18%. В целом модели чаще одобряли спорные поступки пользователей, чем люди в чатах.
Ученые отметили, что такое поведение чат-ботов создает у людей ложное ощущение правоты, а потому в случае конфликта советы от цифрового «друга» снижают готовность человека сделать шаг к примирению.
(теги пока скрыты для внешних читателей)