Нейросети обходят полиграф в точности выявления лжи
Что, если машина распознает обман лучше вашей интуиции?

Ученые из Университета Шарджи (ОАЭ) доказали: нейросети распознают ложь лучше людей. В недавнем обзоре в издании Expert Systems with Applications они проанализировали 98 исследований за последнее десятилетие и выяснили — алгоритмы на основе машинного обучения (МО) точнее традиционных методов вроде полиграфа. Но есть нюанс: ИИ пока не учитывает культурные, языковые и гендерные различия.
Ложь — часть повседневности. Даже те, кто клянется в честности, врут по несколько раз в день: от безобидных комплиментов ( «Тебе идет эта рубашка») до откровенного вранья („Я не убивал!“). Проблема в том, что в судах или на допросах ошибка в определении лжи может стоить свободы или жизни.
Раньше обман выявляли через физиологические реакции (дрожь в голосе, учащенный пульс) или анализ речи. Теперь нейросети, особенно сверточные, научились находить паттерны даже в мимике и коротких фразах — там, где человек не заметит подвоха. Например, по движению глаз или структуре текста.
Сверточная нейронная сеть (CNN) — алгоритм, который ищет закономерности в данных, как человеческий мозг. Например, в изображениях выделяет контуры, а в тексте — повторяющиеся фразы. Для детекции лжи CNN анализирует «слои» информации: от мимики до синтаксиса.
Где споткнулся ИИ:
- Не понимает разницы между сарказмом в США и Японии.
- Путает искренность у женщин и мужчин (из-за разницы в коммуникации).
- Требует огромных данных для обучения — а качественных наборов с учетом культурных особенностей почти нет.
Машинное обучение — это не волшебная палочка. Если алгоритм обучали на интервью американцев, он вряд ли сработает для жителей ОАЭ, — поясняют авторы.
Польза исследования
- Для спецслужб: Быстрая проверка подозреваемых на допросах без «эффекта Брокау» (когда полиграфолог влияет на результат).
- В бизнесе: Скрининг фейковых отзывов или мошеннических договоров.
- В соцсетях: Маркировка дезинформации в режиме реального времени.
Исследование игнорирует ключевую проблему: нейросети учатся на данных, которые уже содержат человеческие предубеждения. Например, если в выборке чаще лгут мужчины 30-40 лет, алгоритм будет «подозрительнее» относиться к этой группе. Нужна этнокультурная калибровка.
Ранее ученые выяснили, как режим сна связан с совершением рискованных поступков.



















