Чат-бот Bing от Microsoft «устает» от долгих разговоров

Изображение: Цитата из м/ф «Нехочуха». Реж. Юрий Бутырин. 1986. СССР
Вкалывают роботы, а не человек
Вкалывают роботы, а не человек

Длительные сеансы чата с ботом могут запутать модель Bing, сообщило 16 февраля со ссылкой на комментарии Microsoft, издание The Verge.

Расширенные сеансы чата с 15 или более вопросами могут привести к тому, что Bing «станет повторяющимся или будет провоцироваться давать ответы, которые не обязательно полезны или соответствуют заданному собеседником тону», — заявили в Microsoft.

В Microsoft для решения проблемы планируют сделать в чате кнопку «Новая тема», которая сотрет историю чата и начнет все заново.

Ранее стало известно, что чат-бот ChatGPT, ставший основой для бота поисковой системы Bing, часто ошибается в своих ответах на вопросы.

Читайте также: Исследователь обнаружил, что чат-бот от Bing часто ошибается