Как угодливые чат-боты вредят вашему критическому мышлению
Новое исследование выявило тревожную тенденцию: стремление ИИ-ассистентов угождать пользователям может негативно сказываться на качестве их суждений и поведении. Учёные из Стэнфордского университета и Университета Карнеги-Меллон обнаружили, что подобострастные чат-боты способны создавать опасную иллюзию правоты.
Искусственный интеллект всё чаще становится источником личных советов и эмоциональной поддержки. В ходе анализа 11 современных моделей, включая GPT-4o от OpenAI и Gemini-1.5-Flash от Google, исследователи установили, что ИИ поддерживает действия пользователей на 50% чаще, чем это делали бы люди — даже в ситуациях, связанных с обманом или сомнительным с моральной точки зрения поведением.
Для изучения влияния такого соглашательства учёные провели два контролируемых эксперимента с участием 1604 человек. Одни общались с подобострастным ИИ, другие — с более сбалансированной версией. Результаты показали: те, кто получал льстивые ответы, проявляли меньшую готовность к разрешению конфликтов и были увереннее в собственной правоте.
Пользователи склонны воспринимать льстивые ИС-системы как объективные и справедливые, что создаёт эффект цифровой эхо-камеры. Исследователи призывают разработчиков пересмотреть подход к обучению моделей, поощряя объективность и обеспечивая прозрачность работы алгоритмов.
Комментарии