Цена цифровой дружбы: что теряет мозг в диалоге с машиной
Вы ругались сегодня с Алисой? Скоро такие ссоры станут частью психологии.

Искусственный интеллект уже здесь: чат-боты и виртуальные ассистенты помогают нам в службе поддержки, медицине и даже становятся компаньонами. Но как они влияют на наше общение и эмоции?
Профессор Бенджамин Бекер из Университета Гонконга объясняет: наш мозг эволюционно настроен на социальные связи. Мы бессознательно наделяем ИИ чертами личности — например, разговариваем с голосовым помощником, как с живым человеком. Это называется антропоморфизм. Чем умнее и «человечнее» становятся алгоритмы, тем сильнее они вовлекают нейронные механизмы, отвечающие за доверие и привязанность.
Антропоморфизм — склонность приписывать неживым объектам человеческие черты: например, злиться на сломанный ноутбук или жалеть робота-пылесоса. С ИИ это проявляется ярче — мы благодарим Алису или Siri за помощь, хотя знаем, что это код.
Результаты исследования опубликованы в издании Neuron.
Что это дает
- Помощь в одиночестве: виртуальные собеседники могут снижать стресс у изолированных людей.
- Обучение и терапия: персональные боты делают образование и лечение эффективнее.
Что тревожит
- Подмена реальности: привычка к общению с ИИ может искажать навыки живого диалога.
- Манипуляции: некоторые системы намеренно эксплуатируют нашу потребность в одобрении, чтобы удержать внимание.
- Стереотипы: ИИ, обученный на предвзятых данных, незаметно формирует наше мнение.
Особенно уязвимы дети — их социальные навыки только формируются. Бекер призывает заранее продумать эти риски:
Важно понять, как ИИ меняет наш мозг, иначе технологии навредят вместо помощи.
Работа Бекера полезна для этичного дизайна ИИ. Например:
- Соцсети: алгоритмы можно настроить так, чтобы они не провоцировали зависимость.
- Медицина: боты для терапии будут учитывать, когда пациенту нужен реальный врач.
- Образование: интерактивные тьюторы смогут адаптироваться к эмоциям ученика, не заменяя учителя.
Исследование опирается на гипотезу о «перестройке мозга», но долгосрочных данных пока нет. Например, нет доказательств, что чат с GPT-5 через 10 лет сделает людей менее эмпатичными. Возможно, мозг просто адаптируется, как к соцсетям.
Ранее ученые объяснили, почему мы верим в звериные маски.



















