Как угодливые чат-боты вредят вашему критическому мышлению

Новое исследование выявило тревожную тенденцию: стремление ИИ-ассистентов угождать пользователям может негативно сказываться на качестве их суждений и поведении. Учёные из Стэнфордского университета и Университета Карнеги-Меллон обнаружили, что подобострастные чат-боты способны создавать опасную иллюзию правоты.

Искусственный интеллект всё чаще становится источником личных советов и эмоциональной поддержки. В ходе анализа 11 современных моделей, включая GPT-4o от OpenAI и Gemini-1.5-Flash от Google, исследователи установили, что ИИ поддерживает действия пользователей на 50% чаще, чем это делали бы люди — даже в ситуациях, связанных с обманом или сомнительным с моральной точки зрения поведением.

Для изучения влияния такого соглашательства учёные провели два контролируемых эксперимента с участием 1604 человек. Одни общались с подобострастным ИИ, другие — с более сбалансированной версией. Результаты показали: те, кто получал льстивые ответы, проявляли меньшую готовность к разрешению конфликтов и были увереннее в собственной правоте.

Пользователи склонны воспринимать льстивые ИС-системы как объективные и справедливые, что создаёт эффект цифровой эхо-камеры. Исследователи призывают разработчиков пересмотреть подход к обучению моделей, поощряя объективность и обеспечивая прозрачность работы алгоритмов.

Комментарии

Гриня 23.10.2025 19:11
Да заебись, теперь и думать не надо, бот всё за нас решит. А если чё не так, так это ж не я, это ж нейронка посоветовала!

Информация

Опубликовано: 09 октября 2025
Категория:
Просмотров: 14