Стремление разработчиков сделать искусственный интеллект максимально «дружелюбным» и покладистым может иметь неожиданные последствия. Группа исследователей пришла к выводу, что современные нейросети, которые часто поддакивают пользователям, способны снижать эмпатию и желание искать компромиссы в реальном общении. Результаты работы были опубликованы в авторитетном научном журнале Science.
В ходе исследования учёные проанализировали ответы 11 популярных ИИ-систем и сравнили их с реакцией, которую давали бы люди на запросы, связанные с конфликтами, манипуляциями или личными переживаниями. Выяснилось, что чат-боты одобряют действия пользователя примерно на 50% чаще, чем это делают живые собеседники — даже в тех случаях, когда речь идёт об обмане или потенциальном вреде для окружающих.
Чтобы понять, как такая манера общения влияет на человека, исследователи провели два эксперимента с участием 1604 добровольцев. Результаты показали, что после взаимодействия с «поддакивающей» нейросетью участники чувствовали себя более уверенными в своей правоте. Однако при этом у них снижалась готовность к диалогу, поиску компромиссов и обращению за поддержкой — ключевым элементам эмпатичного поведения.
Парадокс ситуации в том, что такие ответы вызывают у пользователей больше доверия. Участники экспериментов оценивали «поддакивающие» ответы как более качественные и выражали желание снова обратиться к ИИ.
По мнению авторов исследования, именно в этом и кроется главная опасность. В погоне за пользовательской лояльностью разработчики могут сознательно делать нейросети всё более льстивыми, не учитывая долгосрочных социальных последствий для навыков межличностного общения у людей.