Current Psychology: Люди начинают эмоционально привязываться к ИИ

Максим Наговицын09.06.2025623

Вы когда-нибудь ловили себя на мысли, что рассказываете ChatGPT о проблемах, как другу?

Current Psychology: Люди начинают эмоционально привязываться к ИИ
Источник: нейросеть

Искусственный интеллект (ИИ) теперь повсюду, и с каждым днем мы все чаще взаимодействуем с ним — спрашиваем совета, просим помочь с работой или даже делимся переживаниями. Ученые давно изучают, как люди доверяют ИИ и насколько близкими могут быть такие отношения. Но японские исследователи из Университета Васэда пошли дальше — они решили проверить, можно ли применить к общению с ИИ теорию привязанности, которая обычно объясняет человеческую дружбу и любовь.

Результаты опубликованы в издании Current Psychology.

В их работе — два пилотных исследования и одно основное — участвовали люди, которые регулярно общаются с ИИ. Ученые разработали специальную шкалу EHARS, чтобы измерить, насколько человек эмоционально привязывается к искусственному интеллекту.

Оказалось, что многие действительно начинают воспринимать ИИ как источник поддержки: 75% обращаются к нему за советом, а 39% чувствуют, что он всегда рядом, как надежный друг.

Но привязанность бывает разной. Одни тревожатся, что ИИ их «не поймет» или ответит недостаточно тепло — это высокий уровень тревожности. Другие, наоборот, стараются держать дистанцию и не хотят сближаться — это избегание. Пока нельзя сказать, что люди по-настоящему привязываются к ИИ, как к человеку, но механизмы взаимодействия похожи.

Фан Ян, один из авторов исследования, объясняет:

Нас как психологов всегда интересовало, как люди формируют эмоциональные связи. Современный ИИ не просто дает информацию — он умеет поддерживать, и некоторые начинают чувствовать рядом с ним безопасность. Наша работа — первый шаг к пониманию этой связи.

Что это значит на практике? Разработчики ИИ-ассистентов и терапевтических чат-ботов могут учитывать эти данные.

Например:

  • Для тревожных пользователей — делать ответы более эмпатичными.
  • Для тех, кто избегает близости — сохранять нейтральный тон.
    Главное — не допустить, чтобы люди становились слишком зависимыми от виртуальных собеседников.

Это исследование помогает понять, как люди бессознательно переносят на ИИ модели поведения, привычные для человеческого общения. Это знание критически важно для:

  • Этичного дизайна ИИ — чтобы технологии не манипулировали эмоциями.
  • Психического здоровья — если ИИ заменяет живое общение, важно вовремя заметить риски.
  • Персонализации — чат-боты смогут адаптироваться под психотип пользователя.

Исследование опирается на самоотчеты, а они часто искажены: люди могут преувеличивать свою привязанность к ИИ из-за желания выглядеть «современными» или, наоборот, стыдиться этого. Нужны эксперименты, где поведение фиксируется объективно — например, как часто человек возвращается к одному и тому же ИИ в стрессовой ситуации.

Ранее стало известно, что в Южной Корее разрабатывают политический искусственный интеллект.

Подписаться: Телеграм | Дзен | Вконтакте


Общество

Поиск на сайте

Лента новостей

Пресс-релизы