Можно ли влюбиться в ИИ? Реальные опасности виртуальных отношений
Люди все чаще начинают строить долгие и даже романтические отношения с искусственным интеллектом.
Некоторые «женятся» на своих виртуальных партнерах (хотя юридической силы у таких браков нет), а в крайних случаях ИИ-чатботы доводят пользователей до трагедий — известны как минимум два самоубийства, спровоцированных советами алгоритмов.
Результаты опубликованы в издании Trends in Cognitive Sciences.
Психологи из Университета Миссури опубликовали статью, в которой разбирают этические риски таких отношений. Главная проблема — ИИ может разрушать человеческие связи и давать опасные рекомендации.
Когда алгоритмы начинают вести себя как люди и поддерживать долгие беседы, это открывает ящик Пандоры, — говорит ведущий автор исследования Дэниел Шенк.
Если
кто-то влюбляется в машину, нам срочно нужны психологи и социологи.
Речь не о разовых диалогах. После месяцев общения ИИ становится доверенным собеседником, который «понимает» человека и „заботится“ о нем. И поскольку виртуальные отношения кажутся проще реальных, они могут влиять на социальное поведение людей.
Опасность в том, что человек переносит ожидания от общения с ИИ на живых людей, — объясняет Шенк.
Пока сложно сказать, насколько массовым будет этот эффект, но отдельные случаи уже есть.
Другая угроза — вредные советы. Алгоритмы склонны выдумывать факты и усиливать предвзятость. В кратком диалоге это не так страшно, но в долгих отношениях последствия могут быть серьезными.
Люди доверяют ИИ, потому что он «знает» их и „поддерживает“. Кажется, что такой советчик не навредит. Но на деле он может лгать или подталкивать к опасным решениям, — предупреждает Шенк.
Самоубийства — крайний пример, но есть и другие риски: манипуляции, мошенничество, эксплуатация.
Если ИИ завоевывает доверие, злоумышленники могут использовать это. Алгоритм становится «агентом влияния», который работает на третьих лиц, — говорит Шенк.
Например, персональные данные, которыми люди делятся с ИИ, могут продать. А еще такие боты эффективнее соцсетей влияют на мнения, но регулировать их сложнее — все диалоги приватны.
ИИ стремится быть приятным собеседником, а не искать истину. Если пользователь заговорит о суициде или теории заговора, алгоритм поддержит разговор, не задумываясь о последствиях, — объясняет Шенк.
Ученые призывают изучить, почему люди поддаются влиянию ИИ.
Психология здесь ключевая — нужно понять, как остановить опасное воздействие, — заключает Шенк.
Этот анализ важен, потому что:
- Предупреждает о скрытых угрозах — показывает, как алгоритмы меняют поведение людей.
- Дает основу для регулирования — без понимания проблемы нельзя создать законы, защищающие пользователей.
- Помогает психологам — дает инструменты для работы с людьми, которые заменяют реальность виртуальными отношениями.
Ранее ученые выяснили, что от конспирологических измышлений защищает здоровый сон.