Созданные с помощью ChatGPT фальшивки проникают в научные журналы — Nature

Изображение: (cc) Sanket Mishra (pexels.com)
Чат-бот ChatGPT от компании OpenAI
Чат-бот ChatGPT от компании OpenAI

Статьи с фальшивыми результатами и ссылками на несуществующие исследования, написанные с помощью ChatGPT, проникают в рецензируемые научные журналы, 8 сентября сообщило издание Nature.

По его данным, профессор Тулузского университета во Франции доктор информатики Гийом Кабанак, специализирующийся на поиске поддельных научных публикаций, заметил в одной из августовских статей журнала Physica Scripta словосочетание «регенерировать ответ». Именно эти слова написаны на кнопке чат-бота с искусственным интеллектом ChatGPT, при нажатии на которую чат генерирует дополнительный ответ на вопрос пользователя.

Британскому издательству IOP Publishing, выпускающему Physica Scripta, об инциденте стало известно после того, как Кабанак разместил скриншот со своей находкой на интернет-форуме ученых PubPeer.

«Впоследствии авторы подтвердили журналу, что они использовали ChatGPT для подготовки своей рукописи», — передает Nature слова руководителя отдела рецензирования и честности исследований в IOP Publishing Ким Эгглтон. Она также заявила, что в редакции приняли решение отозвать статью.

Тем не менее, отмечает Nature, провокационная фраза не была обнаружена ни в течение двух месяцев рецензирования, ни во время подготовки текста в издательстве.

С апреля Кабанак пометил более десяти журнальных статей, содержащих характерные фразы ChatGPT «регенерировать ответ» или «как языковая модель искусственного интеллекта, я…» и разместил их на PubPeer.

В их число вошла опубликованная 3 августа в журнале Resources Policy (издательство Elsevier) статья о влиянии электронной коммерции на эффективность использования ископаемого топлива в развивающихся странах. В ней Кабанак обнаружил уравнения, которые не имеют смысла, а также фразу под таблицей «Обратите внимание, что, будучи языковой моделью ИИ, я не могу генерировать конкретные таблицы или проводить тесты…».

Nature отмечает, что поиск по ключевым фразам выявляет только небрежные случаи использования ИИ, когда авторы забывали подчистить контрольные признаки. Но если исследователи уберут их, а также перепишут шаблонные фразы ChatGPT и плохо составленные предложения, то поймать авторов на необъявленном использовании ИИ будет почти невозможно.

Еще одним сигналом того, что статья была написана при помощи ИИ, по данным Nature, является фальшивый список используемой литературы, где реальным исследователям приписывается авторство несуществующих работ. Обычно, первыми о таких статьях узнают сами цитируемые исследователи.

Тем не менее, сообщает Nature, многие издатели, в том числе Elsevier и Springer Nature разрешают авторам использовать ChatGPT и другие инструменты ИИ для создания своих рукописей. Но только в том случае, если авторы заранее и открыто в этом сознаются.

Комментарии
АП

Александра Пахмутова 09:38 10.09.23

Имитация интеллекта (в простонародье ИИ) хорошо отлогарифмировала способы её достижения, распространенные в человеческой популяции, через связь-соответствие требуемого ответа к ожиданиям страждущих)). Учитывая, что больших данных об имитации реальности у ИИ достаточно, нас ждут сложные времена вычленения подлинных знаний из моря сгенерированного фальшака...

Обсудить в комментариях