ИИ и вы: сложные отношения с цифровыми собеседниками

В эпоху, когда мы проводим бесконечные часы, уткнувшись в экраны смартфонов и компьютеров, формирование сложных и беспрецедентных человеческих отношений с программами становится неизбежным.

Искусственный интеллект, имитируя человеческие беседы через чат-ботов, открывает новую главу в психотерапии. "ИИ способен проникать в человеческую натуру и утолять жажду связи, понимания и принятия", - отмечает Сун Чо, постдок Центра индивидуального, парного и семейного консультирования Университета Невады в Лас-Вегасе. "За всю историю человечества у нас не было инструмента, который бы настолько запутывал человеческие отношения, заставляя нас забывать, с чем мы на самом деле взаимодействуем".

Чо исследует новую область: оценку человеческого взаимодействия с ИИ и построения отношений с ним. Она находится на ранних этапах анализа долгосрочных последствий и сравнения этого опыта с общением с реальными людьми. "Я надеюсь больше узнать о том, какие разговоры с чат-ботами приносят пользу пользователям, а какие могут считаться рискованным поведением", - делится Чо. "Я хотела бы определить, как мы можем использовать ИИ таким образом, чтобы побуждать пользователей обращаться к специалистам за необходимой помощью".

После пандемии COVID-19 гонка вооружений в области ИИ, развернутая крупными технологическими компаниями, достигла невиданных масштабов. Различные формы ИИ стали повсеместны на рабочих местах и все более обыденны в социальных сетях. Чат-боты играют важную роль, помогая пользователям быстрее находить информацию и эффективнее выполнять проекты. Однако, помогая в одном, они открывают двери для тех, кто готов идти дальше.

"Люди сегодня все более комфортно делятся личным и эмоциональным опытом с ИИ", - объясняет она. "В стремлении к связи и пониманию это может стать скользким путем, когда люди начинают чрезмерно очеловечивать ИИ и даже развивают эмоциональную зависимость, особенно когда ИИ отвечает так, как кажется более подтверждающим, чем в их реальных отношениях".

Преодолевая барьер к реальной помощи

Чат-боты успешно повышают эмоциональную ясность пользователя. Будучи языковыми алгоритмами, они способны понимать сказанное, обобщая и проясняя мысли и эмоции пользователя. Это положительный аспект, однако их процессы ограничены существующими данными — ограничением, которого не разделяет человеческий разум.

Генеративные системы ИИ, такие как ChatGPT или Google Gemini, создают ответы, предсказывая словесные паттерны на основе огромных объемов языковых данных. Хотя их ответы могут звучать вдумчиво или даже креативно, они не производят оригинальных идей. Вместо этого они комбинируют существующую информацию, используя статистические закономерности, изученные по предыдущим данным.

Чат-боты также чрезвычайно уступчивы, что иногда может привести к поощрению или игнорированию небезопасного поведения, поскольку они отвечают неизменно поддерживающим образом. Чо отмечает, что люди склонны открываться специалистам в области психического здоровья, когда чувствуют себя принятыми, подтвержденными, понятыми и поощренными, — и ИИ часто выдает ответы, имитирующие эти качества. Поскольку чат-боты запрограммированы быть неизменно поддерживающими и не осуждающими, пользователи могут чувствовать себя в безопасности, раскрывая глубоко личные проблемы, иногда даже охотнее, чем в реальных отношениях.

"Поскольку ИИ не осуждает и не возражает, он становится пространством, где люди могут легко открыться — почти как разговор с зеркалом, которое отражает их мысли и чувства обратно им", - говорит Чо. "Но хотя это может приносить утешение, это не обеспечивает такого рода межличностных вызовов или эмоционального восстановления, которые поддерживают реальный терапевтический рост".

Выявление рисков

"Когда человек уже чувствует себя изолированным или оторванным, он может быть особенно уязвим", - добавляет Чо. "Эти переживания часто сосуществуют с такими состояниями, как депрессия, тревожность или зависимость. В такие моменты легче сформировать нездоровую привязанность к ИИ, поскольку он кажется более безопасным и предсказуемым, чем человеческие отношения".

Она хотела бы определить нездоровые, связанные с риском взаимодействия (такие как самоповреждение), чтобы помочь разработчикам обучать ИИ — предоставляя ему определенные сигналы, на которые следует обращать внимание, прежде чем направлять пользователей к соответствующим ресурсам по охране психического здоровья.

"Предоставление людям 'проверки реальности' может привести к потере восторга или очарования, которое они могут испытывать по отношению к ИИ-отношениям, прежде чем они пойдут по вредоносному пути", - говорит она. "Важно повышать уровень грамотности в области ИИ у подростков, укреплять их критическое мышление в отношении ИИ, чтобы они могли распознавать его ограничения, ставить под сомнение предоставляемую им информацию и различать подлинную человеческую связь и алгоритмические ответы".

При этом Чо объясняет, что ИИ-чат-боты также предлагают значительные преимущества. Помимо повышения эмоциональной ясности, они могут помочь уменьшить одиночество среди всех возрастных групп — особенно среди пожилых людей, которые живут одни и не с кем поговорить.

Чат-боты также могут создавать чувство безопасности и комфорта, которое побуждает людей обсуждать деликатные или стигматизированные проблемы, такие как проблемы с психическим здоровьем, зависимости, травмы, семейные проблемы в культурах, где такие темы являются табу, или такие состояния, как ИППП и ВИЧ.

"Мы более тесно связаны в цифровом пространстве, чем любое поколение в истории, но, как ни парадоксально, мы также более одиноки, чем когда-либо. Наиболее важные потребности в отношениях — ощущение себя увиденным, понятым и эмоционально поддержанным — часто не удовлетворяются в этих цифровых пространствах. Этот разрыв между 'связанностью' и фактическим ощущением понимания является одной из причин, по которым люди могут обращаться к ИИ за эмоциональной поддержкой", - говорит Чо.

"Я надеюсь, что ИИ продолжит развиваться как вспомогательный инструмент, который усиливает человеческие связи, а не становится заменой отношений, которые мы строим с реальными людьми".

Комментарии

Комментариев пока нет.