Ученые объяснили, почему искусственный интеллект лжет
Ложные факты, генерируемые искусственным интеллектом, появляются из-за того, что работа ИИ при составлении текстов основана на вероятности, заявил старший преподаватель Гётеборгского университета Маттиас Рост, сообщает 10 декабря Göteborgs-Posten.
Как пояснил эксперт, робот вычисляется вероятность того, каким будет следующее слово в предложении, составляет список и на его основе выбирает альтернативу. По словам Роста, это немного похоже на процесс, в котором мобильный телефон предлагает продолжение, когда человек пишет слово.
Рост подчеркнул, что результат всегда достаточно случаен, и чем лучше модель, тем больше вероятность того, что выдаваемый ею текст будет понятен, «но в ее основе нет ничего, что могло бы сделать ее более правильным или нет».
Рост отметил, что зачастую неясно, почему ИИ выдает тот или иной ответ. Как и в случае с человеческим мозгом, исследователи на самом деле не знают, как именно языковые модели делают свой выбор.
«У него все время галлюцинации, это в его природе. Просто очень часто это оказывается верным», — сказал эксперт.
Он добавил, что данная технология не создана для получения фактических знаний. По мнению исследователя, ее можно использовать для придумывания чего-либо нового.