PNAS: ИИ помогает находить, но не учит отличать фейковые новости
Многие технологические компании и стартапы продвигают сервисы, которые с помощью искусственного интеллекта могут проверять достоверность фактов в интернете и бороться с дезинформацией.
Но ученые из Университета Индианы провели исследование и выяснили, что иногда такие сервисы могут привести к обратному эффекту. Они обнаружили, что люди, которым показали заголовки, проверенные ИИ, стали чаще делиться новостями — как правдивыми, так и ложными. При этом они больше верили именно ложным заголовкам, а не правдивым.
Исследование опубликовано в Proceedings of the National Academy of Sciences.
Первый автор — Мэтью ДеВерна, аспирант Школы информатики, вычислительной техники и инженерии Университета Индианы Ладди в Блумингтоне. Старший автор — Филиппо Менцер (на фото справа), заслуженный профессор Университета Ладди и директор Обсерватории социальных медиа Университета.
Существует много волнений по поводу использования ИИ для расширения масштабов таких приложений, как проверка фактов, поскольку люди не могут справиться с объемом ложных или вводящих в заблуждение утверждений, распространяемых в социальных сетях, включая контент, созданный ИИ, — говорит ДеВерна.
Однако наше исследование подчеркивает, что при взаимодействии людей с искусственным интеллектом могут возникнуть непредвиденные последствия, что говорит о том, как важно тщательно продумывать использование этих инструментов.
Исследователи из IU провели эксперимент, чтобы узнать, как влияет на людей информация о достоверности новостей, сгенерированная популярной языковой моделью. Они хотели понять, помогает ли эта информация людям лучше отличать правдивые новости от ложных и делиться ими.
Модель правильно определила 90% фейковых заголовков. Но исследователи обнаружили, что в среднем люди все равно не стали лучше различать настоящие и поддельные заголовки после того, как им показали результаты проверки модели.
А вот когда люди сами проверяли факты, они лучше понимали, какие новости правдивы.
Наши результаты указывают на важный источник потенциального вреда от применения ИИ и подчеркивают острую необходимость разработки политики, направленной на предотвращение или смягчение таких непредвиденных последствий, — сказал Менцер.
Необходимо провести дополнительные исследования, чтобы повысить точность проверки фактов ИИ, а также лучше понять взаимодействие между людьми и ИИ.
В работе также приняли участие Кай-Ченг Янг из Северо-Восточного университета и Гарри Яоджун Ян из Стэнфордской лаборатории социальных медиа.
Ранее ученые выяснили, что авторитетные издания и издания-фейкометы ловят хайп на разных темах.