Чем рискуют ученые, доверяя ИИ свои статьи

Максим Наговицын03.07.2025743

Ошибка алгоритма может стоить исследователю репутации, и потому чрезвычайно важно знать, как правильно использовать ИИ в науке.

Чем рискуют ученые, доверяя ИИ свои статьи
Источник: нейросеть

С момента запуска ChatGPT в 2022 году искусственный интеллект (ИИ) прочно вошел в научные дискуссии. Исследователи и издатели активно изучают возможности и риски генеративного ИИ — инструментов, которые создают текст, переводят, редактируют и даже помогают в научных открытиях.

Генеративный ИИ — это алгоритмы, которые создают новый контент (текст, изображения, код) на основе обученных данных. В отличие от обычного ИИ, который только анализирует информацию, генеративный умеет «сочинять». Например, ChatGPT пишет статьи, а Midjourney рисует картины. Проблема в том, что он часто смешивает факты с вымыслом („галлюцинирует“).

Но ИИ — не новинка. Обычные (не генеративные) алгоритмы уже давно анализируют данные, проверяют гипотезы и делают то, что человеку не под силу. Технологии развиваются быстрее, чем появляются правила их использования. Пока одни экспериментируют с ИИ, другие спрашивают: как он изменит науку? Какое место останется у человека? Кто будет считаться автором — алгоритм или ученый?

В PLOS Biology вышли две статьи (1, 2) о роли ИИ в исследованиях и публикациях. Их главный вывод: ИИ — это помощник, а не замена ученому. Авторы сравнивают его с «гиперответственным стажером, который работает без устали, но без контроля может устроить хаос». Человек должен направлять ИИ, проверять его выводы и вкладывать в работу экспертизу, креативность и этические принципы.

Когда данные собраны, ИИ ускоряет написание статей — меньше времени на рутину, больше на эксперименты. Но интерпретировать результаты и обсуждать их значение должен сам исследователь. Важно и соблюдать правила журналов: например, ИИ не может быть автором, а его использование нужно указывать.

В чем подвох

  • Как уже замечено выше, ИИ иногда выдает недостоверную информацию или «галлюцинации» — ложные факты и ссылки.
  • Загружая данные в ИИ, можно случайно раскрыть незащищенную информацию.
  • Мошенники используют ИИ для фальшивых статей и рецензий, что вредит репутации науки.

С другой стороны, ИИ помогает преодолеть языковой барьер: ученые из неанглоязычных стран могут писать и рецензировать работы на родном языке. Но здесь новая проблема — алгоритмы обучаются на данных, в которых уже есть перекосы. К тому же не у всех есть доступ к мощным ИИ-инструментам.

Что делать

  • Проверять все, что создал ИИ, и править ошибки.
  • Не загружать в ИИ конфиденциальные данные.
  • Открыто указывать, где использовался ИИ.

ИИ уже стал частью науки, и со временем его роль будет расти. Главное — не забывать, что он всего лишь инструмент, а последнее слово всегда должно оставаться за человеком.

Исследование помогает систематизировать риски и преимущества ИИ в науке, что особенно важно для молодых ученых и редакторов журналов. Оно дает четкие рекомендации: как избежать плагиата, «галлюцинаций» ИИ и нарушения этики. Кроме того, работа обращает внимание на проблему неравенства — ИИ может как сократить разрыв между учеными из разных стран, так и усугубить его, если доступ к технологиям останется привилегией богатых университетов.

Авторы исследования упускают важный нюанс: ИИ-инструменты часто меняются, а их алгоритмы остаются «черным ящиком». Даже при строгом контроле ученый не может быть уверен, на каких данных обучалась модель и какие скрытые biases (предвзятости) она воспроизводит. Это ставит под вопрос надежность любых выводов, сделанных с помощью ИИ.

Ранее мы разбирались, как ИИ меняет бизнес и творческие профессии.

Подписаться: Телеграм | Дзен | Вконтакте


Net&IT

Поиск на сайте

Лента новостей

Пресс-релизы