«Яндекс» объяснил мрачный инцидент с ответом «Алисы» о «Маше и медведе»
Некорректный ответ голосового помощника «Алисы» на вопрос о персонаже мультфильма «Маша и медведь» был единичным случаем и в настоящее время исправлен, об этом 3 апреля сообщила пресс-служба «Яндекса».
Уполномоченный по правам ребенка в Санкт-Петербурге Анна Митянина отреагировал на инцидент с ответом своего голосового помощника «Алисы».
Так, на вопрос ребенка о том, почему Маша живет одна, колонка ответила: «Она всего лишь призрак убитой девочки, именно поэтому она не растет и видеть ее могут только животные. Родители же не смогли выдержать потери ребенка и уехали, оставив пустой дом. А мучает Маша медведя, потому что он и лишил ее жизни».
Представители «Яндекса» отреагировали, что такие ответы от Алисы теперь исключены, и рекомендовали использовать детский режим при взаимодействии с голосовым помощником для защиты детей от нежелательного содержимого.
Компания также напомнила о способности «Алисы» обучаться, уточняя, что для отдельных вопросов помощник может извлекать информацию из открытых источников, стремясь выбирать подходящие фразы для диалога.
Мария Мэссэрова 13:44 4.04.24
Вот именно поэтому обучением и воспитанием детей должны заниматься люди. Отвечая на вполне нормальный вопрос ребенка, ИИ уводит рассуждения в сторону мистического культа смерти. Наталкивание на подобные мысли в неподходящем возрасте (да еще и такое грубое) может исказить всю систему интересов. Ребенок боится смерти и одновременно зацикливается на пугающей его теме. Теперь этому посвяшены его интересы, рисунки, игры. С этими последствиями придется разбираться его родителям. А ИИ просто запустит эту цепочку, ни за что не отвечая.