ИИ в работе: Поддержка или угроза приватности?

Искусственный интеллект (ИИ) становится всё более популярным инструментом для оказания эмоциональной поддержки сотрудникам. Компании активно внедряют системы, анализирующие психологическое состояние персонала, но это порождает вопросы о ценности таких решений и угрозах конфиденциальности.

Смена парадигмы удалённой работы подтолкнула многие отрасли, от здравоохранения до HR, к использованию ИИ-решений для анализа эмоций сотрудников, выявления признаков стресса и предоставления поддержки. Это выходит за рамки обычных чат-ботов или приложений для личной терапии.

Исследователи, изучающие влияние ИИ на эмоции и взаимоотношения в рабочей среде, поднимают важные вопросы: что произойдёт, когда у работодателя появится доступ к эмоциональным данным сотрудника? Сможет ли ИИ действительно обеспечить необходимую эмоциональную поддержку? Каковы последствия сбоев системы и кто будет нести ответственность?

Рабочие отличия

Многие компании уже предлагают автоматизированные программы консультирования, схожие с приложениями для личной терапии. Предварительные исследования показали, что в формате виртуального диалога в стиле «врач-пациент» ответы ИИ могут вызывать у людей большее чувство понимания, чем ответы людей. Исследование, сравнивающее ИИ-чат-ботов с психотерапевтами-людьми, выявило, что боты были «по крайней мере такими же эмпатичными, как и ответы терапевтов, а иногда и более эмпатичными».

Возможно, это покажется неожиданным, но ИИ обеспечивает неустанное внимание и последовательно поддерживающие ответы. Он не перебивает, не осуждает и не проявляет раздражения при повторении одних и тех же проблем. Для некоторых сотрудников, особенно тех, кто сталкивается с деликатными вопросами, такими как психическое здоровье или рабочие конфликты, такая предсказуемость кажется безопаснее человеческого взаимодействия.

Однако для других это порождает новые опасения. Исследование 2023 года показало, что работники неохотно участвуют в программах по охране психического здоровья, инициированных компанией, из-за опасений по поводу конфиденциальности и стигматизации. Многие опасались, что их откровения могут негативно сказаться на их карьере.

Другие рабочие ИИ-системы проникают глубже, анализируя коммуникации сотрудников в реальном времени — электронные письма, переписки в Slack и звонки Zoom. Этот анализ создаёт подробные записи эмоциональных состояний сотрудников, моделей стресса и психологических уязвимостей. Все эти данные хранятся в корпоративных системах, где механизмы защиты конфиденциальности обычно неясны и часто отдают приоритет интересам работодателя.

Компания Workplace Options, глобальный поставщик услуг поддержки сотрудников, в партнёрстве с Wellbeing.ai развернула платформу, использующую лицевую аналитику для отслеживания эмоциональных состояний по 62 категориям эмоций. Она генерирует показатели благополучия, которые организации могут использовать для выявления признаков стресса или проблем с моральным духом. Такой подход эффективно интегрирует ИИ в эмоционально чувствительные аспекты работы, оставляя тонкую грань между поддержкой и наблюдением.

В этом сценарии ИИ, который помогает сотрудникам чувствовать себя услышанными и поддержанными, одновременно генерирует беспрецедентное понимание эмоциональной динамики рабочей силы. Организации теперь могут отслеживать, какие отделы демонстрируют признаки выгорания, выявлять сотрудников, подверженных риску увольнения, и мониторить эмоциональные реакции на организационные изменения.

Однако такие инструменты также трансформируют эмоциональные данные в управленческую информацию, ставя многие компании перед настоящей дилеммой. В то время как прогрессивные организации устанавливают строгие правила управления данными, ограничивая доступ к анонимизированным закономерностям, а не к индивидуальным разговорам, другие борются с искушением использовать эмоциональные инсайты для оценки производительности и принятия кадровых решений.

Непрерывное наблюдение, осуществляемое некоторыми из этих систем, может помочь гарантировать, что компании не упустят из виду группу или отдельного человека в беде, но также может привести к тому, что люди будут сами отслеживать свои действия, чтобы избежать привлечения внимания. Исследования мониторинга сотрудников с помощью ИИ показали, как сотрудники испытывают повышенный стресс и меняют своё поведение, когда знают, что руководство может просмотреть их взаимодействие. Мониторинг подрывает чувство безопасности, необходимое людям для комфортного поиска помощи. Другое исследование выявило, что эти системы усилили стресс у сотрудников из-за потери конфиденциальности и опасений, что возникнут последствия, если система идентифицирует их как испытывающих стресс или выгорание.

Когда искусственная эмпатия встречается с реальными последствиями

Эти выводы важны, поскольку в условиях рабочего места ставки, возможно, даже выше, чем в личных отношениях. Системы ИИ не обладают нюансированным суждением, необходимым для различения принятия человека как личности и одобрения вредоносного поведения. В организационном контексте это означает, что ИИ может непреднамеренно одобрить неэтичные методы работы или не распознать критическую необходимость человеческого вмешательства.

И это не единственный способ, которым системы ИИ могут ошибаться. Исследование показало, что инструменты ИИ для отслеживания эмоций непропорционально сильно влияли на цветных сотрудников, трансгендерных и небинарных людей, а также на людей с психическими заболеваниями. Интервьюируемые выразили глубокую обеспокоенность по поводу того, как эти инструменты могут неправильно интерпретировать настроение, тон или словесные сигналы сотрудника из-за этнических, гендерных и других предубеждений, которые несут в себе системы ИИ.

Существует также проблема аутентичности. Исследования показывают, что когда люди знают, что разговаривают с системой ИИ, они оценивают идентичные эмпатичные ответы как менее аутентичные, чем когда они приписывают их людям. Тем не менее, некоторые сотрудники предпочитают ИИ именно потому, что знают, что это не человек. Чувство, что эти инструменты защищают вашу анонимность и свободу от социальных последствий, привлекательно для некоторых — даже если это может быть лишь ощущение.

Технология также поднимает вопросы о том, что происходит с менеджерами-людьми. Если сотрудники последовательно предпочитают ИИ для эмоциональной поддержки, что это говорит об организационном руководстве? Некоторые компании используют инсайты ИИ для обучения менеджеров эмоциональному интеллекту, превращая технологию в зеркало, отражающее недостатки человеческих навыков.

Путь вперёд

Дискуссия об эмоциональной поддержке с использованием ИИ на рабочем месте — это не только о технологии, но и о том, в каких компаниях люди хотят работать. По мере того как эти системы становятся всё более распространёнными, мы считаем важным grappling с фундаментальными вопросами: должны ли работодатели отдавать приоритет подлинному человеческому общению перед последовательной доступностью? Как можно сбалансировать индивидуальную конфиденциальность с организационными инсайтами? Могут ли организации использовать эмпатические возможности ИИ, сохраняя при этом доверие, необходимое для значимых рабочих отношений?

Наиболее продуманные реализации признают, что ИИ не должен заменять человеческую эмпатию, а скорее создавать условия, в которых она может процветать. Когда ИИ берёт на себя рутинный эмоциональный труд — тревожные мысли в 3 часа ночи, предсовещательные проверки стресса, обработка трудной обратной связи — менеджеры получают время для более глубоких и подлинных связей со своими командами.

Но это требует тщательной реализации. Компании, которые устанавливают чёткие этические границы, строгую защиту конфиденциальности и явные политики использования эмоциональных данных, с большей вероятностью избегут ловушек этих систем, равно как и те, кто признаёт, когда человеческое суждение и подлинное присутствие остаются незаменимыми.

Комментарии

Комментариев пока нет.