European Radiology: ИИ может заменить ординатора, но не опытного врача
В радиологии для интерпретации результатов, связанных с различными заболеваниями, нужны специальные знания. Модели искусственного интеллекта, такие как ChatGPT, показали потенциал в диагностике в области медицины.
Но чтобы оптимально их использовать в будущем, нужно оценить точность этих моделей.
Исследовательская группа под руководством доктора Дайсуке Хориучи и доцента Дайю Уэда из Высшей школы медицины Университета Осака Метрополитен сравнила точность диагностики ChatGPT и рентгенологов. Они проанализировали 106 случаев заболеваний опорно-двигательного аппарата, используя данные пациентов, снимки и результаты визуализации.
Для этого исследования информация о каждом случае была загружена в GPT-4 и GPT-4 со зрением (GPT-4V) для постановки диагноза.
Результаты показали, что GPT-4 превосходит GPT-4V и не уступает радиологам-ординаторам. В то же время ChatGPT оказался менее точным в диагностике по сравнению с сертифицированными радиологами.
Доктор Хориучи сказал, что ChatGPT может быть полезен для диагностической визуализации, но его точность не сравнится с точностью врача-рентгенолога. Прежде чем использовать ChatGPT в диагностике, нужно полностью изучить его эффективность.
Доктор также выразил надежду, что в будущем генеративный ИИ станет вспомогательным инструментом для диагностической визуализации.
Результаты опубликованы в издании European Radiology.