ИИ как партнёр: усиление человеческого сотрудничества

Исследователи из Университета Карнеги — Меллона изучают, как искусственный интеллект может стать ценным помощником в командной работе, а не заменой сотрудников.

Профессор Анита Уильямс Вулли, специализирующаяся на организационном поведении, исследует коллективный интеллект и влияние ИИ на рабочие процессы. Её команда разрабатывает фреймворк Collective HUman-MAchine INtelligence (COHUMAIN), призванный определить оптимальные сценарии интеграции ИИ в существующие организационные структуры.

COHUMAIN предлагает рассматривать ИИ не как очередного члена команды, а как партнёра, действующего под человеческим руководством. Такой подход позволяет усилить существующие возможности и улучшить командные взаимоотношения. "ИИ-агенты могут стать тем недостающим элементом, который необходим в современных, изменённых условиях работы, и в конечном итоге улучшить наши взаимоотношения друг с другом", — отмечает Вулли.

Исследование подчеркивает, что, несмотря на потенциально новые формы интеграции ИИ, фундаментальные принципы организационного интеллекта останутся неизменными, а ИИ вряд ли сможет полностью заменить человеческие роли. Например, ИИ может эффективно резюмировать встречу, но именно люди способны улавливать эмоциональный фон или понимать более широкий контекст обсуждения.

Современные организации по-прежнему нуждаются в структурах, позволяющих максимально использовать уникальные навыки каждого сотрудника. Вулли предполагает, что системы ИИ наиболее эффективны в партнёрских или фасилитационных ролях, например, как инструмент, побуждающий коллег к взаимодействию или предлагающий альтернативную точку зрения.

Безопасность и риски

В условиях растущей удалённой работы ИИ-инструменты могут способствовать укреплению связей между коллегами. Однако они также поднимают вопросы о том, какая информация записывается и с какой целью. "Люди вполне справедливо обеспокоены конфиденциальностью. Зачастую приходится чем-то жертвовать ради выгоды, и это справедливо и здесь", — говорит Вулли.

По словам Аллена Брауна, аспиранта, работающего с Вулли, уровень воспринимаемого социального и профессионального риска может меняться в зависимости от взаимодействия с ИИ. Браун исследует, где именно проявляется это напряжение и как команды могут его преодолеть. Его работа сосредоточена на том, насколько комфортно люди чувствуют себя, высказывая идеи или рискуя в группе.

Браун предполагает, что в лучшем случае ИИ может помочь людям чувствовать себя увереннее, высказывая новые идеи, которые иначе могли бы остаться неуслышанными. "В аудитории студент может сказать: "Я немного волнуюсь, я недостаточно знаю для профессора или опасаюсь оценки моих сверстников", или "Мне кажется, это хорошая идея, но, возможно, нет". Мы не узнаем, пока не попробуем", — приводит он пример.

Поскольку ИИ опирается на цифровые записи, которые могут храниться постоянно, возникает опасение, что человек может не знать, какие взаимодействия с ИИ будут использованы для оценки. "В наших всё более опосредованных цифровыми технологиями рабочих пространствах многое из того, что мы делаем, отслеживается и документируется", — отмечает Браун. "Существует цифровой след, и если меня уведомят, что "внезапно наш разговор может быть использован для оценки", мы наблюдаем существенное изменение во взаимодействии."

Даже когда люди считали, что их комментарии могут отслеживаться или оцениваться профессионально, они чувствовали себя относительно безопасно, общаясь с другим человеком. "Мы разговариваем вместе. Мы вместе работаем над чем-то, но мы оба люди. Существует своего рода взаимное допущение риска", — объясняет он.

Исследование показало, что люди чувствовали себя более уязвимыми, когда полагали, что система ИИ оценивает их. Браун стремится понять, как ИИ может создать противоположный эффект — укрепить уверенность и доверие. "В каких контекстах ИИ может быть партнёром, частью коммуникативной практики между двумя людьми на работе, например, в отношениях руководителя и подчиненного, или в команде, работающей над темой, которая может вызывать конфликт задач или отношений?" — задаётся вопросом Браун. "Как ИИ помогает разрешить процесс принятия решений или улучшить его, чтобы люди действительно чувствовали повышенную психологическую безопасность?"

Создание более надёжного ИИ

На индивидуальном уровне исследователи Tepper также изучают, как объяснение ИИ своих рассуждений влияет на его использование и доверие к нему. Чжаохуэй (Зои) Цзян и Линда Арготе изучают реакцию людей на различные типы систем ИИ — в частности, на те, которые объясняют свои рассуждения (прозрачный ИИ), и те, которые не раскрывают, как они принимают решения (ИИ "чёрный ящик").

"Многие выступают за прозрачный ИИ, — говорит Цзян, — но наши исследования выявили преимущество сохранения ИИ в виде "чёрного ящика", особенно для высококвалифицированных участников". Одной из причин этого, объясняет она, является излишняя уверенность и недоверие к опытным лицам, принимающим решения. "Участники, которые уже самостоятельно хорошо справляются с задачей, более склонны к известной тенденции избегания ИИ. Они будут наказывать ошибку ИИ гораздо строже, чем ту же ошибку, совершённую человеком, включая себя", — отмечает Цзян. "Мы обнаружили, что эта тенденция более выражена, если рассказать о внутреннем устройстве ИИ, таком как его логика или правила принятия решений."

Люди, испытывающие трудности с принятием решений, на самом деле улучшают свои результаты при использовании прозрачных моделей ИИ, демонстрирующих умеренный уровень сложности в процессе принятия решений. "Мы обнаружили, что объяснение того, как ИИ мыслит над проблемой, на самом деле лучше для менее опытных пользователей, поскольку они могут учиться на правилах принятия решений ИИ, чтобы улучшить своё собственное будущее самостоятельное принятие решений."

Хотя прозрачность демонстрирует свои преимущества и области применения, Цзян говорит, что самые удивительные выводы касаются того, как люди воспринимают модели "чёрного ящика". "Когда мы не говорим участникам, как модель пришла к своему ответу, они оценивают модель как наиболее сложную. Непрозрачность, кажется, увеличивает ощущение изощрённости, тогда как прозрачность может заставить ту же самую систему казаться проще и менее "волшебной", — сказала она. Обе модели различаются по своим областям применения. Хотя пока экономически нецелесообразно настраивать ИИ под каждого партнёра-человека, будущие системы могут быть способны самоадаптироваться, чтобы помочь людям принимать лучшие решения, — предполагает она. "Он может быть динамичным, распознавая неэффективность принятия решений конкретного человека, с которым ему поручено сотрудничать, и, возможно, настраиваясь так, чтобы дополнить и компенсировать некоторые из этих неэффективностей."

Комментарии

Алекс 15.11.2025 23:05
Интересно! Получается, ИИ — это как новый коллега, который может подкинуть идею или помочь разобраться в сложной задаче, но главного босса все равно никто не отменял 😉. Главное, чтобы он не начал перекладывать на нас свою работу 😅. И чтобы наши мысли не стали достоянием общественности 🤫. А вообще, звучит как начало новой эры коллаборации! ✨🚀