Чем рискуют ученые, доверяя ИИ свои статьи
Ошибка алгоритма может стоить исследователю репутации, и потому чрезвычайно важно знать, как правильно использовать ИИ в науке.

С момента запуска ChatGPT в 2022 году искусственный интеллект (ИИ) прочно вошел в научные дискуссии. Исследователи и издатели активно изучают возможности и риски генеративного ИИ — инструментов, которые создают текст, переводят, редактируют и даже помогают в научных открытиях.
Генеративный ИИ — это алгоритмы, которые создают новый контент (текст, изображения, код) на основе обученных данных. В отличие от обычного ИИ, который только анализирует информацию, генеративный умеет «сочинять». Например, ChatGPT пишет статьи, а Midjourney рисует картины. Проблема в том, что он часто смешивает факты с вымыслом („галлюцинирует“).
Но ИИ — не новинка. Обычные (не генеративные) алгоритмы уже давно анализируют данные, проверяют гипотезы и делают то, что человеку не под силу. Технологии развиваются быстрее, чем появляются правила их использования. Пока одни экспериментируют с ИИ, другие спрашивают: как он изменит науку? Какое место останется у человека? Кто будет считаться автором — алгоритм или ученый?
В PLOS Biology вышли две статьи (1, 2) о роли ИИ в исследованиях и публикациях. Их главный вывод: ИИ — это помощник, а не замена ученому. Авторы сравнивают его с «гиперответственным стажером, который работает без устали, но без контроля может устроить хаос». Человек должен направлять ИИ, проверять его выводы и вкладывать в работу экспертизу, креативность и этические принципы.
Когда данные собраны, ИИ ускоряет написание статей — меньше времени на рутину, больше на эксперименты. Но интерпретировать результаты и обсуждать их значение должен сам исследователь. Важно и соблюдать правила журналов: например, ИИ не может быть автором, а его использование нужно указывать.
В чем подвох
- Как уже замечено выше, ИИ иногда выдает недостоверную информацию или «галлюцинации» — ложные факты и ссылки.
- Загружая данные в ИИ, можно случайно раскрыть незащищенную информацию.
- Мошенники используют ИИ для фальшивых статей и рецензий, что вредит репутации науки.
С другой стороны, ИИ помогает преодолеть языковой барьер: ученые из неанглоязычных стран могут писать и рецензировать работы на родном языке. Но здесь новая проблема — алгоритмы обучаются на данных, в которых уже есть перекосы. К тому же не у всех есть доступ к мощным ИИ-инструментам.
Что делать
- Проверять все, что создал ИИ, и править ошибки.
- Не загружать в ИИ конфиденциальные данные.
- Открыто указывать, где использовался ИИ.
ИИ уже стал частью науки, и со временем его роль будет расти. Главное — не забывать, что он всего лишь инструмент, а последнее слово всегда должно оставаться за человеком.
Исследование помогает систематизировать риски и преимущества ИИ в науке, что особенно важно для молодых ученых и редакторов журналов. Оно дает четкие рекомендации: как избежать плагиата, «галлюцинаций» ИИ и нарушения этики. Кроме того, работа обращает внимание на проблему неравенства — ИИ может как сократить разрыв между учеными из разных стран, так и усугубить его, если доступ к технологиям останется привилегией богатых университетов.
Авторы исследования упускают важный нюанс: ИИ-инструменты часто меняются, а их алгоритмы остаются «черным ящиком». Даже при строгом контроле ученый не может быть уверен, на каких данных обучалась модель и какие скрытые biases (предвзятости) она воспроизводит. Это ставит под вопрос надежность любых выводов, сделанных с помощью ИИ.
Ранее мы разбирались, как ИИ меняет бизнес и творческие профессии.