Доктор Айболит или доктор ИИ: кому доверяют пациенты
ИИ уже пишет истории болезней, но сможет ли он понять, что чувствует пациент?

Исследование Университета Мэна сравнили, как искусственный интеллект и врачи справляются со сложными медицинскими случаями.
Ученые проанализировали более 7000 анонимных запросов пациентов из США и Австралии.
Выяснилось, что ИИ хорошо отвечает на вопросы с четкими фактами — например, о симптомах или методах лечения.
Но когда дело доходит до объяснений ( «почему так происходит?» или „как это лечить?“), машина часто ошибается.
Еще одна проблема: если задать один и тот же вопрос в разное время, ИИ может дать противоречивые ответы.
Результаты исследования опубликованы в издании Journal of Health Organization and Management.
Главный автор исследования, профессор Мэтт Грэм, подчеркивает:
ИИ не заменит врачей. Он нужен, чтобы помогать — анализировать данные, находить закономерности и подсказывать решения. Это как второе мнение, только мгновенное.
Интересно, что в Австралии, где медицина бесплатная, пациенты довольны лечением больше, чем в США, а тратят в четыре раза меньше. При этом ждут приема в два раза меньше. Грэм считает, что ИИ-системы должны учитывать такие различия между странами.
Но есть то, что машины пока не умеют — сопереживать. Ответы ИИ выглядят шаблонно: всегда примерно одинаковой длины, с кучей медицинских терминов. Когда речь идет о психическом здоровье или тяжелых диагнозах, холодный тон может ранить пациента.
Врачи лечат не только таблетками, но и человеческим теплом, — говорит Келли Страут, профессор медсестринского дела. — ИИ может стать мощным инструментом, но только если внедрять его осторожно, с четкими правилами.
Сейчас в США катастрофически не хватает врачей, особенно в сельских районах. К 2037 году дефицит терапевтов там может достичь 42%. ИИ мог бы помочь — например, отвечать на вопросы пациентов онлайн. Но есть и риски: если внедрять технологии слишком быстро, ошибки могут стоить людям здоровья.
Технологии — лишь часть решения, — говорит Грэм. — Нужны законы, контроль и данные, которые учитывают всех, а не только узкие группы. Иначе ИИ усилит неравенство.
Страут добавляет:
Электронные медкарты изначально создавали для бухгалтерии, а не для удобства врачей. В итоге они всех раздражают. С ИИ нельзя повторять эти ошибки.
Эксперты сходятся: ИИ улучшит медицину, но только если останется помощником, а не заменой живому врачу.
Это исследование — не просто сравнение «кто умнее». Оно показывает:
- Где ИИ реально полезен — обработка данных, быстрые справки.
- Где он опасен — эмоционально сложные ситуации, неоднозначные диагнозы.
- Как внедрять его правильно — без спешки, с учетом культурных различий и этики.
Такие работы помогают избежать слепой веры в технологии и создать системы, которые действительно облегчат работу врачей.
Отметим, что исследование рассматривает только текстовые ответы ИИ, но в реальной медицине ключевую роль играет диагностика — анализ снимков, лабораторных данных. Без этого картина неполная. Также непонятно, какие именно модели тестировали: условный ChatGPT или специализированные медицинские ИИ?
Ранее ученые заявили, что доверие к ИИ в медицине повышают напоминания о врачебных ошибках.