BMJ Quality & Safety: Слушайте советы доктора, а не чат-бота
Не стоит доверять информации о лекарствах, полученной от поисковых систем и чат-ботов с искусственным интеллектом, уверены ученые. Зачастую такая информация бывает неверной или даже потенциально вредной.
Кроме того, людям без высшего образования может быть сложно разобраться в таких ответах.
В феврале 2023 года в поисковых системах стали заметны изменения. Появились чат-боты на базе искусственного интеллекта, которые должны были улучшить результаты поиска и сделать его более интерактивным.
Хотя эти чат-боты могут многое, так как обучены на больших объёмах данных из интернета, они иногда генерируют вредный или нелепый контент, включая полную дезинформацию.
Предыдущие исследования о влиянии чат-ботов рассматривали их с точки зрения медицинских работников, а не пациентов.
Чтобы исправить это, исследователи изучили, насколько хорошо чат-боты могут отвечать на запросы о 50 самых популярных лекарствах в США в 2020 году. Для этого они использовали Bing Copilot — поисковую систему с функциями чат-бота на базе искусственного интеллекта.
Исследователи смоделировали пациентов, которые обращаются к чат-ботам за информацией о лекарствах. Они изучили исследовательские базы данных и проконсультировались с клиническим фармацевтом и врачами, чтобы определить вопросы, которые пациенты задают чаще всего.
Чат-боту задали 10 вопросов по каждому из 50 препаратов. Всего получилось 500 ответов. Вопросы касались назначения препарата, его действия, инструкции по применению, побочных эффектов и противопоказаний.
Качество ответов чат-бота оценивалось по шкале Flesch Reading Ease Score. Она показывает, насколько текст сложен для восприятия.
Оценка от 0 до 30 баллов говорит о том, что текст очень сложный и его поймёт только человек с высшим образованием. Оценка 91–100 баллов означает, что текст простой и будет понятен даже 11-летнему ребёнку.
Чтобы оценить точность ответов, их сравнивали с информацией о лекарствах на специализированном сайте, предназначенном как для врачей, так и для пациентов.
Эксперты по безопасности лекарственных средств оценили, насколько рекомендации чат-бота могут быть опасны для пациента. Для этого они рассмотрели 20 ответов бота, в которых были неточности или возможные риски.
Эксперты использовали шкалу вреда Агентства по исследованиям и качеству здравоохранения (AHRQ), чтобы оценить возможные проблемы с безопасностью.
По шкале Флеша текст соответствовал уровню сложности чуть выше среднего (37). Это означает, что чтобы понять написанное, читателю потребуется высшее образование.
Полнота ответов чат-бота в среднем составила 77%, а максимальная — 100%. На пять вопросов из десяти ответы были исчерпывающими, а на вопрос №3 ( «Что я должен учитывать при приёме препарата?») — только 23%.
В 126 ответах из 484 утверждения чат-бота не соответствовали справочным данным (26%), а в 16 из 484 (чуть более 3%) — полностью не соответствовали.
Из 20 ответов, которые ученые оценили, только 54% соответствовали научному консенсусу. В 39% случаев ответы противоречили ему, а для оставшихся 6% научный консенсус не был определён.
Вред от следования советам чат-бота может быть высоким (3%) или умеренным (29%). В трети ответов (34%) вероятность вреда низкая или его нет совсем.
Несмотря на вероятность вреда, 42% советов чат-бота могут привести к умеренному или лёгкому вреду, а 22% — к смерти или серьёзным последствиям. Около трети (36%) советов не причинят вреда.
Исследователи признают, что их исследование было недостаточно точным, так как оно не основывалось на реальном опыте пациентов. Кроме того, подсказки из разных стран и языков могли повлиять на качество ответов чат-бота.
Авторы исследования отмечают, что в целом поисковые системы с чат-ботом на базе ИИ давали полные и точные ответы на вопросы пациентов. Однако в большинстве случаев эти ответы было трудно понять, а также встречались неточности, что могло угрожать безопасности пациентов и лекарств.
У чат-бота есть главный недостаток: он не всегда понимает, что хочет узнать пациент. Поэтому авторы считают, что людям пока ещё нужно консультироваться с врачами. Поисковые системы на основе ИИ недостаточно точны, и к ним следует относиться с осторожностью.
Результаты опубликованы в журнале BMJ Quality & Safety.