ChatGPT распространяет недостоверную информацию о лекарствах — исследование

Изображение: (cc) Sanket Mishra (pexels.com)
Чат-бот ChatGPT от компании OpenAI
Чат-бот ChatGPT от компании OpenAI

ChatGPT предоставляет неточную информацию об употреблении лекарств, сказано в исследовании университета Лонг-Айленда (LIU) в Бруклине, 16 декабря сообщает Fox News.

Ведущий автор исследования Сара Гроссман, фармацевт, доцент кафедры аптечной практики в LIU, задала чат-боту 39 вопросов о лекарствах, которые первоначально были заданы информационной службе по лекарствам Фармацевтического колледжа LIU.

В исследовании указано, что почти 75% (29 из 39) ответов чат-бота на вопросы были признаны неполными или неправильными.

В некоторых случаях полученные ответы могли бы поставить под угрозу пациентов, сообщается в пресс-релизе Американского общества фармацевтов системы здравоохранения (ASHP) со штаб-квартирой в Бетесде, штат Мэриленд.

По словам Гроссман, ChatGPT также генерировал «фальшивые цитаты», когда его просили привести ссылки в подтверждение некоторых ответов.

ChatGPT не следует рассматривать как «авторитетный источник информации, связанной с лекарствами», — подчеркнула Гроссман. «Любой, кто использует ChatGPT, должен обязательно проверять информацию, полученную из надежных источников, а именно фармацевтов, врачей или других поставщиков медицинских услуг», добавила она.

Ранее в 2023 году представитель OpenAI, разработчик ChatGPT, заявлял, что «Модели OpenAI не приспособлены для предоставления медицинской информации. Никогда не следует использовать наши модели для предоставления услуг по диагностике или лечению серьезных заболеваний».

Доктор Харви Кастро, живущий в Далласе, штат Техас, сертифицированный врач неотложной помощи и национальный спикер по искусственному интеллекту (ИИ) в здравоохранении сказал для Fox News Digital, что потенциал использования ИИ в медицинских целях огромен и может сильно разгрузить работу медицинского персонала. Тем не менее без человеческого надзора пока обойтись невозможно.

«Человеческий надзор по-прежнему необходим, гарантируя, что инструменты искусственного интеллекта, такие как ChatGPT, используются в качестве дополнения, а не замены профессионального медицинского заключения», — заключил он.