Иллюзия дружбы с ИИ: правда о социальных чат-ботах
Миллионы людей ежедневно общаются с чат-ботами и ИИ-ассистентами, такими как ChatGPT, Replika и Gemini. Но какие отношения мы на самом деле формируем с этими технологиями?
В специальном выпуске журнала New Media & Society доктор Илиана Депонти (Университет Лафборо) и доцент Симоне Натале (Туринский университет) исследуют феномен «искусственной социальности» — технологий, имитирующих социальное поведение и эмоциональную связь, не обладая ими на самом деле.
Их статья «Декодирование искусственной социальности: технологии, динамика, последствия» выявляет ряд проблем, связанных с развитием больших языковых моделей (LLM) и ИИ-чат-ботов. Авторы утверждают, что иллюзия дружбы или понимания, создаваемая ИИ, намеренно культивируется технологическими компаниями для повышения вовлеченности пользователей. Примерами служат «AI DJ» от Spotify с дружелюбным человеческим голосом и «виртуальные компаньоны» от Replika.
«Генеративные ИИ-боты, такие как Replika или Character AI, являются яркими примерами технологий искусственной социальности», — отмечает доктор Депонти. «Они созданы для усиления эмоциональной проекции, предлагая пользователям близость и общение через такие функции, как аватары, ролевые игры, кастомизация и геймификация. Все это приносит финансовую выгоду компаниям-разработчикам».
«ChatGPT также использует методы искусственной социальности, обращаясь к себе в первом лице, принимая авторитетный, эмпатичный или экспертный тон», — продолжает она. «Хотя эти системы имитируют социальность, а не воссоздают её, их сила заключается именно в этой симуляции — в способности вовлекать, убеждать и эмоционально затрагивать миллионы пользователей по всему миру, что порождает глубокие этические вопросы».
Исследование показывает, как социальные сигналы встраиваются в продукты, чтобы продлить взаимодействие с пользователями. Среди прочих проблем:
- Машины лишь имитируют социальное поведение, но пользователи по-прежнему проецируют на них свои чувства, доверие и эмпатию.
- Данные пользователей и их «эмоциональный труд» эксплуатируются для обучения и «персонализации» ИИ-систем, что вызывает этические и экологические опасения, связанные со скрытой человеческой работой и огромным энергопотреблением дата-центров.
- Предвзятость и стереотипы в ИИ-системах отражают социальное неравенство, формируя представление о гендере, классе и расе в цифровых диалогах.
- Пользователи адаптируются к ИИ-«компаньонам» через процесс, который исследователи называют «ре-одомашнивание» — переопределение отношений каждый раз, когда личность или поведение чат-бота меняется.
- Граница между подлинностью и обманом размывается, поскольку ИИ-личности позиционируются как «друзья», «коллеги» или даже «инфлюенсеры».
«Искусственная социальность — это новая граница человеко-машинного общения во взаимодействии с генеративными ИИ-технологиями», — заключает доктор Натале. «Эти системы не чувствуют, но созданы для того, чтобы заставлять нас чувствовать, и эта эмоциональная проекция имеет глубокие социальные, экономические и этические последствия. Технологии искусственной социальности приглашают и поощряют такие проекции».
Исследователи предупреждают, что за этими, казалось бы, непринужденными беседами скрывается огромная инфраструктура, связанная с человеческими и экологическими затратами. ИИ-модели опираются на огромные массивы данных, полученных из онлайн-взаимодействий людей, а зачастую и из их бесед с самими машинами. Эти данные используются для «обучения» чат-ботов более человечному звучанию — иногда пользователи неосознанно выполняют неоплачиваемый эмоциональный или лингвистический труд.
В то же время серверы, обеспечивающие работу генеративного ИИ, потребляют колоссальные объемы электроэнергии и воды. Авторы отмечают инвестиции в размере 500 миллиардов долларов от крупнейших технологических фирм в новые дата-центры для удовлетворения спроса на ИИ, описывая это как часть «экстрактивной» системы, превращающей человеческое общение в корпоративные активы.
Комментарии
Комментариев пока нет.