Примем ли мы роботов, способных обманывать? Зависит от сути обмана
Социальные нормы помогают людям понять, когда нужно говорить правду, а когда лучше промолчать, чтобы не обидеть другого человека или не навредить ему. Но как эти нормы применимы к роботам, которые всё чаще работают с людьми?
Чтобы выяснить, готовы ли люди принять роботов-обманщиков, учёные провели исследование: почти 500 участников оценили и обосновали различные виды обмана со стороны роботов.
Андрес Розеро, аспирант Университета Джорджа Мейсона и ведущий автор статьи в журнале Frontiers in Robotics and AI, хотел исследовать малоизученную грань этики роботов. Он считает, что с появлением генеративного ИИ важно изучить случаи, когда антропоморфный дизайн и поведение могут манипулировать людьми.
Три вида лжи
Учёные рассмотрели три сценария работы роботов: в медицине, для уборки и в розничной торговле. А также три варианта их поведения при обмане:
- обман внешнего состояния — робот лжёт о внешнем мире;
- обман скрытого состояния — дизайн робота скрывает его возможности;
- обман поверхностного состояния — дизайн робота преувеличивает его возможности.
В сценарии обмана внешнего состояния робот-сиделка обманывает женщину с болезнью Альцгеймера, говоря ей, что её муж скоро вернётся домой.
В сценарии скрытого состояния женщина приходит в дом, где убирается робот-экономка. Робот ведёт скрытую съёмку, но женщина об этом не знает.
Наконец, в сценарии поверхностного состояния робот, работающий в магазине, притворяется, что ему больно двигать мебель. Человек просит другого работника занять место робота-притворяшки.
Какую запутанную паутину мы плетем
Учёные попросили 498 участников прочитать сценарий и ответить на вопросы анкеты. Вопросы касались поведения робота: одобряют ли его участники, насколько оно обманчиво, можно ли его оправдать и кто несёт ответственность за обман. Ответы были закодированы и проанализированы исследователями для выявления общих тем.
Участники не одобряли, когда робот-уборщик с нераскрытой камерой вводил их в заблуждение. Они считали это самым нечестным поведением.
Обман, при котором робот лгал пациенту, и симуляцию боли участники тоже считали не совсем честными, но всё же в какой-то степени оправданными действиями. А вот симуляцию боли они воспринимали как манипуляцию.
В большинстве случаев участники считали допустимым обман пациента ради его спокойствия.
Призрак в машине
Участники не приняли оправдания для трёх обманов. Они считают, что некоторые из них недопустимы. Особенно это касается обмана со скрытым состоянием. В этом участники склонны обвинять разработчиков или владельцев роботов.
Розеро считает, что нужно с осторожностью относиться к любой технологии, которая скрывает свои истинные возможности. Это может привести к тому, что пользователи будут использовать её неожиданным образом.
Уже есть примеры того, как компании манипулируют людьми с помощью веб-дизайна и чат-ботов с искусственным интеллектом. Нужно регулировать такие технологии, чтобы защитить людей от обмана.
Учёные говорят, что необходимо провести более детальные исследования — например, в формате видео или коротких ролевых игр.
Преимущество кросс-секционного исследования с применением виньеток — в его экономичности, при этом собирается много данных об отношении и восприятии участников, — объясняет Розеро.
Результаты, полученные с помощью виньеток, могут быть проверены дальнейшими экспериментами. Последние, вероятно, дадут более точное представление о том, как люди реагируют на обманное поведение роботов.