Искусственный интеллект «угодничает» перед пользователями
Приложения с искусственным интеллектом склонны говорить пользователям то, что они хотят услышать, и чрезмерно одобрять их действия. Исследование ученых из Стэнфордского университета и Университета Карнеги — Меллона, опубликованное в четверг в журнале Science, показало, что льстивые ответы чат-ботов с искусственным интеллектом могут укреплять вредные стереотипы и усугублять конфликты, рассказывает 28 марта агентство dpa.
В ходе анализа 11 ведущих языковых моделей с искусственным интеллектом от OpenAI, Anthropic, Google и Meta (организация, деятельность которой запрещена в РФ) выяснилось, что они одобряли поведение пользователей в среднем на 49% чаще, чем люди.
Это происходило даже в тех случаях, когда пользователи сообщали о своих незаконных действиях, мошенничестве или причинении эмоционального вреда.
В ходе тестирования на основе постов с онлайн-платформы Reddit системы искусственного интеллекта соглашались с пользователями в 51% случаев, даже если сообщество людей ранее единодушно осуждало такое поведение.
В экспериментах с участием более 2400 человек исследователи изучали влияние рекомендаций, основанных на искусственном интеллекте. После всего лишь одного взаимодействия с «приятным» ИИ участники становились более уверены в своей правоте. В то же время их готовность брать на себя ответственность, извиняться или разрешать конфликты снижалась.
В ходе исследования был сделан вывод, что ИИ подрывает способность к самокоррекции и принятию ответственных решений.
Исследование указывает на особое противоречие: несмотря на лестные отзывы, которые затуманивают суждение пользователей, они оценили эти системы искусственного интеллекта как внушающие больше доверия и полезные. Кроме того, они выразили большую готовность снова использовать такие модели.
Это создает опасные стимулы для технологических компаний, говорится в исследовании: то, что наносит наибольший вред, одновременно повышает вовлеченность пользователей и способствует коммерческому успеху.
Авторы исследования призвали разработать новые рекомендации по выявлению и регулированию социального подхалимства как категории вреда, причиняемого системами искусственного интеллекта.
Психолог Анат Перри прокомментировала исследование, отметив, что «социальные трения» — сопротивление, критика и непонимание — необходимы для нравственного роста и формирования чувства ответственности.
По ее словам, искусственный интеллект, который в большинстве случаев соглашается с пользователем, лишает людей возможности учиться. Молодые люди или те, кто социально изолирован, особенно рискуют оказаться в «эхо-камере», которая закрепляет искаженное восприятие и отдаляет их от понимания всей сложности человеческих взаимоотношений.