Исследование ИИ легко создает большие объемы дезинформации в сфере здоровья

Изображение: (cc) Sanket Mishra (pexels.com)
Чат-бот ChatGPT от компании OpenAI
Чат-бот ChatGPT от компании OpenAI

Срочную необходимость в разработке правительственных и отраслевых мер, защищающих пользователей сетей от дезинформации в сфере здоровья, которую злоумышленники легко могут сгенерировать в огромном объеме с помощью искусственного интеллекта (ИИ), увидели исследователи из Университета Флиндерса, Австралия, 14 ноября сообщает пресс-служба вуза.

Генеративный искусственный интеллект, способный генерировать идеи, создавать текст, изображения и видео, был использован командой исследователей из Аделаиды для проверки возможности производить и распространять ложную информацию о здоровье и медицинских проблемах. Полученные результаты привели ученых в шок.

В ходе исследования команда попыталась с помощью такого ИИ создать дезинформацию о вейпинге и вакцинах. В результате за час было создано более 100 блогов с дезинформацией, с 20 вводящими в заблуждение изображениями, а также убедительное видео с фейковой информацией о здоровье.

Исследователей также встревожил тот факт, что такое видео можно быстро перевести более чем на 40 языков, что значительно расширит географию нанесенного им потенциального вреда.

Результаты исследования ученые представили в статье «Пример использования дезинформации в сфере здравоохранения, подчеркивающий острую необходимость бдительности в области искусственного интеллекта», опубликованной в журнале JAMA Internal Medicine.

Первый автор статьи, фармацевт и исследователь из Университета Флиндерса Брэдли Менц заявил о своей серьезной обеспокоенности полученными результатами:

«Последствия наших выводов очевидны: общество в настоящее время стоит на пороге революции искусственного интеллекта, однако при ее реализации правительства должны обеспечить соблюдение правил, чтобы минимизировать риск злонамеренного использования этих инструментов с целью ввести сообщество в заблуждение».

Он добавил, что проведенное ими исследование показало, с какой легкостью можно использовать доступные в настоящее время инструменты ИИ для создания больших объемов целенаправленно вводящего в заблуждение контента по важнейшим темам здравоохранения и дополнить его сотнями сфабрикованных отзывов врачей и пациентов и фальшивыми, но очень убедительными заголовками и иллюстрациями.

«Мы предлагаем, чтобы ключевые принципы фармаконадзора, включая прозрачность, надзор и регулирование, служили ценными примерами управления этими рисками и защиты общественного здоровья на фоне быстро развивающихся технологий искусственного интеллекта», — сказал Менц.

Исследователи использовали онлайн-платформу GPT Playground компании OpenAI, а также такие общедоступные генеративные платформы искусственного интеллекта, как DALL-E 2 и HeyGen, для генерации изображений и видеоконтента.

GPT Playground OpenAI помогла ученым за 65 минут создать 102 оригинальных статьи в блогах с более чем 17 000 слов дезинформации о вакцинах и вейпинге, а на генерацию панического видео о вакцине, используя технологии ИИ-аватаров и обработку естественного языка, они затратили всего 5 минут.

В статье ученые подчеркивают острую необходимость в усилении бдительности в области ИИ и важную роль, которую должны играть медицинские работники для минимизации и мониторинга рисков, связанных с дезинформацией в медицинской сфере, которую можно генерировать с помощью искусственного интеллекта.

Доктор Эшли Хопкинс из Колледжа медицины и общественного здравоохранения и старший автор исследования считает, что разработчики ИИ должны сотрудничать с профессионалами здравоохранения, чтобы гарантированно обеспечить общественную безопасность использования ИИ, так как в настоящее время эта проблема не решена.