ИИ врёт так же, как раньше. Но теперь он делает это мило — и вы ему доверяете

Проанализировали 2000 диалогов с чат-ботами и выяснили: вежливость повышает доверие, даже когда они несут бред.


v0t3zv9lznmm4cw64wvukzvbkr3kxwx0.jpg

Люди начинают видеть в чат-боте нечто похожее на собеседника не тогда, когда модель отвечает точнее, а тогда, когда она звучит дружелюбнее. К такому выводу пришли авторы нового исследования , где разбиралось не качество самих систем, а то, какие именно черты в их поведении заставляют пользователей приписывать им личность, эмоции и внутренние намерения.

Авторы проанализировали более 2000 взаимодействий между людьми и большими языковыми моделями, в которых участвовали 115 человек. При этом исследователи не переобучали систему и не меняли ее базовые возможности. Команда последовательно варьировала стиль ответов по нескольким параметрам: теплоте, компетентности и эмпатии, а затем смотрела, как меняется восприятие модели по шкалам антропоморфизма, доверия, полезности, сходства с человеком, раздражения и чувства близости.

Самое сильное влияние оказала теплота, то есть то, насколько дружелюбным, располагающим и приятным кажется тон модели. Именно этот параметр заметно менял все ключевые оценки сразу. Когда бот отвечал более тепло, участники чаще воспринимали его как нечто более человеческое, сильнее ему доверяли, выше оценивали практическую пользу, чувствовали больше близости и меньше раздражались. Даже степень антропоморфизма – склонность приписывать системе человеческие черты, в первую очередь зависела именно от манеры общения.

С компетентностью картина вышла другой. Она тоже влияла на восприятие, но уже не так широко. Более уверенные, точные и содержательные ответы повышали доверие, полезность и снижали раздражение, однако почти не меняли ощущение человечности. Иначе говоря, хороший результат помогает считать систему полезным инструментом, но сам по себе не заставляет видеть в ней подобие личности.