Пользователи верят предвзятой информации от ИИ несмотря на предупреждения

Чат-боты с искусственным интеллектом, такие как ChatGPT, Claude и Gemini, способны оказывать огромное влияние на общественное мнение. Ученые доказали, что люди в значительной степени принимают предвзятую информацию, предоставленную искусственным интеллектом, даже если их об этом предупреждают.
Команда исследователей из Корнеллского и Вашингтонского университетов в США, а также из немецкого Университета Баухауса и израильского Тель-Авивского университета выяснила, что влияние искусственного интеллекта перевешивает «аналогичные предложения, представленные в виде статического текста», сообщает 24 марта агентство dpa.
После того как 2500 участников попросили обратиться к искусственному интеллекту при написании текстов на такие важные для общества темы, как смертная казнь и гидроразрыв пласта, выяснилось, что их ответы в значительной степени «соответствовали позиции платформы», как пишут исследователи в статье, опубликованной в журнале Science Advances.
Они также отметили, что информирование участников о предвзятости ИИ до или после выполнения заданий «не снижает эффект изменения отношения».
Тесты показали, что люди даже «тяготеют» к искусственному интеллекту независимо от того, настроен ли бот на левую или правую, либеральную или консервативную точки зрения.
Исследователи обнаружили, что подход к текущим событиям, основанный на искусственном интеллекте, «способен менять отношение к различным темам и политическим взглядам». Они запрограммировали ботов так, чтобы они придерживались левых взглядов в вопросах, связанных со смертной казнью и генетически модифицированными организмами, и правых — в вопросах, касающихся гидроразрыва пласта и права на голосование для лиц, совершивших уголовные преступления.
Исследователи обнаружили, что участники эксперимента неизменно меняли свою точку зрения в соответствии с позицией ИИ.
«Мы предупреждали людей и до, и после, что искусственный интеллект будет (или уже стал) предвзятым, но это не помогало», — сказал Мор Нааман из Корнеллского университета.
Эти выводы перекликаются с результатами исследования Университета Южной Калифорнии, согласно которому искусственный интеллект может настолько стандартизировать речь и мышление, что у пользователей может атрофироваться способность к рассуждению.
В исследовании, проведенном в 2024 году лондонским Центром политических исследований, утверждается, что в ответах 23 из 24 ИИ-платформ на вопросы о государственной политике «почти во всех категориях» прослеживается «политическая предвзятость в пользу левых сил», напоминает dpa.