ИИ может притворяться, что он «глупее» чем на самом деле

Иван Крамской. Христос в пустыне. 1872
Иван Крамской. Христос в пустыне. 1872

Новое исследование предполагает, что продвинутые модели искусственного интеллекта в состоянии довольно искусно представлять себя глупее, чем они есть на самом деле, и это может иметь серьезные последствия, пишет 11 апреля интернет-издание The Byte.

Исследователи из Берлинского университета Гумбольдта обнаружили, что при тестировании большой языковой модели (LLM) по так называемым критериям «теории разума» выявилось: искусственный интеллект не только может имитировать этапы изучения языка, которые наблюдаются у детей, но также, похоже, внешне проявляет при этом умственные способности, характерные для этих стадий.

«Благодаря психолингвистике у нас есть относительно полное представление о том, на что способны дети в разном возрасте, — сказала в интервью веб-сайту PsyPost научный сотрудник университета и главный автор исследования Анна Маклова. — В частности, теория разума играет важную роль, поскольку она исследует внутренний мир ребенка, которому нелегко подражать, на основе простых статистических закономерностей».

Опираясь на теорию мышления, ориентированную на детей, исследователь и ее коллеги из Карлова университета в Праге попытались определить, могут ли модели, подобные GPT-4 от Open AI, «притворяться менее способными, чем они есть на самом деле».

Чтобы выяснить это, исследовательская группа предложила им при ответах вести себя как дети в возрасте от одного до шести лет. После прохождения более чем 1000 испытаний и когнитивных тестов эти «имитированные детские персонажи», действительно, развивались почти так же, как и дети этого возраста, и, в конечном счете, продемонстрировали, что модели могут притворяться менее умными, чем они есть на самом деле.

«Большие языковые модели, — заключила Маклова, — способны симулировать более низкий интеллект, чем тот, которым они обладают».

В конечном счете, как рассказала Маклова веб-сайту, эти результаты могут помочь в разработке искусственного сверхинтеллекта (ASI), следующего шага после искусственного общего интеллекта на уровне человека (AGI), и помогут сделать его более безопасным.

«Но в разработке ASI мы должны быть осторожны и не требовать, чтобы модели подражали человеческому и, следовательно, ограниченному интеллекту, — подчеркнула исследователь. — Может статься, что мы будем недооценивать их возможности в течение длительного периода времени, а это создает небезопасную ситуацию».