Нейросети обходят полиграф в точности выявления лжи

Максим Наговицын16.07.2025664

Что, если машина распознает обман лучше вашей интуиции?

Нейросети обходят полиграф в точности выявления лжи
Источник: нейросеть

Ученые из Университета Шарджи (ОАЭ) доказали: нейросети распознают ложь лучше людей. В недавнем обзоре в издании Expert Systems with Applications они проанализировали 98 исследований за последнее десятилетие и выяснили — алгоритмы на основе машинного обучения (МО) точнее традиционных методов вроде полиграфа. Но есть нюанс: ИИ пока не учитывает культурные, языковые и гендерные различия.

Ложь — часть повседневности. Даже те, кто клянется в честности, врут по несколько раз в день: от безобидных комплиментов ( «Тебе идет эта рубашка») до откровенного вранья („Я не убивал!“). Проблема в том, что в судах или на допросах ошибка в определении лжи может стоить свободы или жизни.

Раньше обман выявляли через физиологические реакции (дрожь в голосе, учащенный пульс) или анализ речи. Теперь нейросети, особенно сверточные, научились находить паттерны даже в мимике и коротких фразах — там, где человек не заметит подвоха. Например, по движению глаз или структуре текста.

Сверточная нейронная сеть (CNN) — алгоритм, который ищет закономерности в данных, как человеческий мозг. Например, в изображениях выделяет контуры, а в тексте — повторяющиеся фразы. Для детекции лжи CNN анализирует «слои» информации: от мимики до синтаксиса.

Где споткнулся ИИ:

  • Не понимает разницы между сарказмом в США и Японии.
  • Путает искренность у женщин и мужчин (из-за разницы в коммуникации).
  • Требует огромных данных для обучения — а качественных наборов с учетом культурных особенностей почти нет.

Машинное обучение — это не волшебная палочка. Если алгоритм обучали на интервью американцев, он вряд ли сработает для жителей ОАЭ, — поясняют авторы.

Польза исследования

  • Для спецслужб: Быстрая проверка подозреваемых на допросах без «эффекта Брокау» (когда полиграфолог влияет на результат).
  • В бизнесе: Скрининг фейковых отзывов или мошеннических договоров.
  • В соцсетях: Маркировка дезинформации в режиме реального времени.

Исследование игнорирует ключевую проблему: нейросети учатся на данных, которые уже содержат человеческие предубеждения. Например, если в выборке чаще лгут мужчины 30-40 лет, алгоритм будет «подозрительнее» относиться к этой группе. Нужна этнокультурная калибровка.

Ранее ученые выяснили, как режим сна связан с совершением рискованных поступков.

Подписаться: Телеграм | Дзен | Вконтакте


Net&IT

Поиск на сайте

Лента новостей

Пресс-релизы