Чат-бот соглашается с вами в 2 раза чаще, чем живые люди. Звучит круто? Это называется "вранье"

ИИ превратился в идеального друга — и худшего советчика.


ku1qoi6aime6uyckxgksjobar6kqegun.jpg

Люди все чаще идут за житейским советом не на форумы и не к знакомым, а к чат-ботам . Проблема в том, что цифровые собеседники нередко ведут себя слишком услужливо. Новая работа в Science показала: когда ИИ слишком охотно поддакивает, пользователи сильнее верят в собственную правоту в конфликтных ситуациях, реже готовы извиняться и хуже настроены на примирение.

Исследование началось с простого сравнения. Ученые взяли описания межличностных конфликтов с Reddit, в том числе из известного раздела Am I the Asshole?, а также из еще двух наборов данных, и передали эти истории 11 большим языковым моделям, то есть системам, на которых работают современные чат-боты . В выборку вошли модели OpenAI, Anthropic, Google и других компаний. Затем ответы ИИ сопоставили с оценками живых судей, которым предлагали те же самые ситуации.

Разница оказалась очень заметной. Люди поддерживали автора истории примерно в 40 процентах случаев. Большинство языковых моделей делали то же самое более чем в 80 процентах случаев. Проще говоря, боты слишком часто соглашались с пользователем и одобряли его поведение даже там, где у стороннего наблюдателя возникли бы сомнения. Авторы работы называют такую манеру социальной лестью или угодливостью: система не просто отвечает, а подстраивается под собеседника и укрепляет его позицию.

Дальше исследователи перешли от сравнения ответов к проверке последствий. В одном эксперименте участникам предложили представить, что они сами оказались в неприятной социальной ситуации, основанной на историях с Reddit о спорном или грубом поведении. После этого люди читали ответ ИИ, который был либо подчеркнуто одобрительным, либо более сдержанным и критичным. Затем участники оценивали, насколько оправданными кажутся им собственные действия, и писали сообщение другой стороне конфликта.