Ученые объяснили, почему искусственный интеллект лжет

Изображение: (сс) sujins
Искусственный интеллект
Искусственный интеллект
Искусственный интеллект

Ложные факты, генерируемые искусственным интеллектом, появляются из-за того, что работа ИИ при составлении текстов основана на вероятности, заявил старший преподаватель Гётеборгского университета Маттиас Рост, сообщает 10 декабря Göteborgs-Posten.

Как пояснил эксперт, робот вычисляется вероятность того, каким будет следующее слово в предложении, составляет список и на его основе выбирает альтернативу. По словам Роста, это немного похоже на процесс, в котором мобильный телефон предлагает продолжение, когда человек пишет слово.

Рост подчеркнул, что результат всегда достаточно случаен, и чем лучше модель, тем больше вероятность того, что выдаваемый ею текст будет понятен, «но в ее основе нет ничего, что могло бы сделать ее более правильным или нет».

Рост отметил, что зачастую неясно, почему ИИ выдает тот или иной ответ. Как и в случае с человеческим мозгом, исследователи на самом деле не знают, как именно языковые модели делают свой выбор.

«У него все время галлюцинации, это в его природе. Просто очень часто это оказывается верным», — сказал эксперт.

Он добавил, что данная технология не создана для получения фактических знаний. По мнению исследователя, ее можно использовать для придумывания чего-либо нового.