Китайские эксперты заявили о сложностях использования ИИ в медицине

Изображение: Сергей Анашкин © ИА Красная Весна
Медицина в России
Медицина в России

Генеративный искусственный интеллект обладает огромным потенциалом в клинической диагностике и лечении, но в то же время инструменты ИИ все еще могут «галлюцинировать», то есть генерировать ложную или вводящую в заблуждение информацию. Об этом сообщают эксперты в опросе изданию Yicai 26 февраля.

Диагностика заболеваний с помощью моделей искусственного интеллекта в Китае набирает обороты, таких как Med-Go Шанхайской восточной больницы. И все больше пациентов используют генеративные инструменты ИИ, такие как «диагностический отчет» чатбота DeepSeek, чтобы напрямую консультироваться с врачами.

Хотя есть случаи, когда инструменты ИИ точно диагностируют заболевания, применять эти модели к более широкой группе пациентов пока нецелесообразно, говорят разработчики медицинской информационной системы. Хотя большие языковые модели могут взять на себя часть задач врачей общей практики в муниципальных клиниках, все еще существует необходимость в постоянных исследованиях и обучении специализированных моделей для клинической диагностики в крупных больницах, добавил он.

Med-Go, которая уже сдала национальный квалификационный экзамен для врачей и победила в нескольких конкурсах медицинских знаний, недавно была использована для диагностики редкого аутоиммунного заболевания у 11-летнего мальчика. Обычно на такую диагностику уходит год, но с помощью искусственного интеллекта она была проведена гораздо быстрее.

«Med-Go — это как профессор медицины, который оказывает вспомогательную помощь врачам в принятии решений, но не заменяет их», — говорит изобретатель Чжан Хайтао.

«Даже если 90% заключений DeepSeek точны, это не значит, что он может заменить мнение врача», — говорит один из кардиологов.

Инструменты искусственного интеллекта хороши лишь настолько, насколько хороши поступающие в них данные, сказал директор отделения интенсивной терапии крупной больницы в Шанхае. «Только достоверные данные могут привести к достоверным результатам». Хотя создание медицинской модели ИИ не является сложной задачей благодаря наличию множества моделей с открытым исходным кодом, реальная проблема заключается в локальной обработке данных в различных сценариях.

По словам Го Лехана, заместителя директора отделения УЗИ 10-й народной больницы Шанхая и руководителя исследовательской группы «УЗИ + ИИ», «галлюцинации» являются самым большим препятствием для широкого использования ИИ в медицине. Это может привести к неправильным диагнозам, рекомендациям по лечению или медицинским решениям, что может иметь серьезные последствия для здоровья пациента, добавил он.

Преодоление «галлюцинаций» ИИ требует решения множества технических и этических проблем, говорит Чэнь Жуньшэн, ученый из Китайской академии наук.