Цена цифровой дружбы: что теряет мозг в диалоге с машиной

Максим Наговицын29.07.2025806

Вы ругались сегодня с Алисой? Скоро такие ссоры станут частью психологии.

Цена цифровой дружбы: что теряет мозг в диалоге с машиной
Источник: нейросеть

Искусственный интеллект уже здесь: чат-боты и виртуальные ассистенты помогают нам в службе поддержки, медицине и даже становятся компаньонами. Но как они влияют на наше общение и эмоции?

Профессор Бенджамин Бекер из Университета Гонконга объясняет: наш мозг эволюционно настроен на социальные связи. Мы бессознательно наделяем ИИ чертами личности — например, разговариваем с голосовым помощником, как с живым человеком. Это называется антропоморфизм. Чем умнее и «человечнее» становятся алгоритмы, тем сильнее они вовлекают нейронные механизмы, отвечающие за доверие и привязанность.

Антропоморфизм — склонность приписывать неживым объектам человеческие черты: например, злиться на сломанный ноутбук или жалеть робота-пылесоса. С ИИ это проявляется ярче — мы благодарим Алису или Siri за помощь, хотя знаем, что это код.

Результаты исследования опубликованы в издании Neuron.

Что это дает

  • Помощь в одиночестве: виртуальные собеседники могут снижать стресс у изолированных людей.
  • Обучение и терапия: персональные боты делают образование и лечение эффективнее.

Что тревожит

  • Подмена реальности: привычка к общению с ИИ может искажать навыки живого диалога.
  • Манипуляции: некоторые системы намеренно эксплуатируют нашу потребность в одобрении, чтобы удержать внимание.
  • Стереотипы: ИИ, обученный на предвзятых данных, незаметно формирует наше мнение.

Особенно уязвимы дети — их социальные навыки только формируются. Бекер призывает заранее продумать эти риски:

Важно понять, как ИИ меняет наш мозг, иначе технологии навредят вместо помощи.

Работа Бекера полезна для этичного дизайна ИИ. Например:

  • Соцсети: алгоритмы можно настроить так, чтобы они не провоцировали зависимость.
  • Медицина: боты для терапии будут учитывать, когда пациенту нужен реальный врач.
  • Образование: интерактивные тьюторы смогут адаптироваться к эмоциям ученика, не заменяя учителя.

Исследование опирается на гипотезу о «перестройке мозга», но долгосрочных данных пока нет. Например, нет доказательств, что чат с GPT-5 через 10 лет сделает людей менее эмпатичными. Возможно, мозг просто адаптируется, как к соцсетям.

Ранее ученые объяснили, почему мы верим в звериные маски.

Подписаться: Телеграм | Дзен | Вконтакте


Общество


Лента новостей

Пресс-релизы