Иллюзия дружбы с ИИ: правда о социальных чат-ботах

Миллионы людей ежедневно общаются с чат-ботами и ИИ-ассистентами, такими как ChatGPT, Replika и Gemini. Но какие отношения мы на самом деле формируем с этими технологиями?

В специальном выпуске журнала New Media & Society доктор Илиана Депонти (Университет Лафборо) и доцент Симоне Натале (Туринский университет) исследуют феномен «искусственной социальности» — технологий, имитирующих социальное поведение и эмоциональную связь, не обладая ими на самом деле.

Их статья «Декодирование искусственной социальности: технологии, динамика, последствия» выявляет ряд проблем, связанных с развитием больших языковых моделей (LLM) и ИИ-чат-ботов. Авторы утверждают, что иллюзия дружбы или понимания, создаваемая ИИ, намеренно культивируется технологическими компаниями для повышения вовлеченности пользователей. Примерами служат «AI DJ» от Spotify с дружелюбным человеческим голосом и «виртуальные компаньоны» от Replika.

«Генеративные ИИ-боты, такие как Replika или Character AI, являются яркими примерами технологий искусственной социальности», — отмечает доктор Депонти. «Они созданы для усиления эмоциональной проекции, предлагая пользователям близость и общение через такие функции, как аватары, ролевые игры, кастомизация и геймификация. Все это приносит финансовую выгоду компаниям-разработчикам».

«ChatGPT также использует методы искусственной социальности, обращаясь к себе в первом лице, принимая авторитетный, эмпатичный или экспертный тон», — продолжает она. «Хотя эти системы имитируют социальность, а не воссоздают её, их сила заключается именно в этой симуляции — в способности вовлекать, убеждать и эмоционально затрагивать миллионы пользователей по всему миру, что порождает глубокие этические вопросы».

Исследование показывает, как социальные сигналы встраиваются в продукты, чтобы продлить взаимодействие с пользователями. Среди прочих проблем:

  • Машины лишь имитируют социальное поведение, но пользователи по-прежнему проецируют на них свои чувства, доверие и эмпатию.
  • Данные пользователей и их «эмоциональный труд» эксплуатируются для обучения и «персонализации» ИИ-систем, что вызывает этические и экологические опасения, связанные со скрытой человеческой работой и огромным энергопотреблением дата-центров.
  • Предвзятость и стереотипы в ИИ-системах отражают социальное неравенство, формируя представление о гендере, классе и расе в цифровых диалогах.
  • Пользователи адаптируются к ИИ-«компаньонам» через процесс, который исследователи называют «ре-одомашнивание» — переопределение отношений каждый раз, когда личность или поведение чат-бота меняется.
  • Граница между подлинностью и обманом размывается, поскольку ИИ-личности позиционируются как «друзья», «коллеги» или даже «инфлюенсеры».

«Искусственная социальность — это новая граница человеко-машинного общения во взаимодействии с генеративными ИИ-технологиями», — заключает доктор Натале. «Эти системы не чувствуют, но созданы для того, чтобы заставлять нас чувствовать, и эта эмоциональная проекция имеет глубокие социальные, экономические и этические последствия. Технологии искусственной социальности приглашают и поощряют такие проекции».

Исследователи предупреждают, что за этими, казалось бы, непринужденными беседами скрывается огромная инфраструктура, связанная с человеческими и экологическими затратами. ИИ-модели опираются на огромные массивы данных, полученных из онлайн-взаимодействий людей, а зачастую и из их бесед с самими машинами. Эти данные используются для «обучения» чат-ботов более человечному звучанию — иногда пользователи неосознанно выполняют неоплачиваемый эмоциональный или лингвистический труд.

В то же время серверы, обеспечивающие работу генеративного ИИ, потребляют колоссальные объемы электроэнергии и воды. Авторы отмечают инвестиции в размере 500 миллиардов долларов от крупнейших технологических фирм в новые дата-центры для удовлетворения спроса на ИИ, описывая это как часть «экстрактивной» системы, превращающей человеческое общение в корпоративные активы.

Комментарии

Комментариев пока нет.

Информация

Опубликовано: 12 ноября 2025
Категория:
Просмотров: 7