ИИ в поиске лжи: может ли машина распознать обман?

Стремительное развитие искусственного интеллекта (ИИ) открывает новые горизонты, и недавнее исследование Университета штата Мичиган погружается в вопрос, насколько хорошо ИИ способен понимать человеческие намерения, в частности, распознавать ложь.

В рамках исследования, результаты которого были опубликованы в Journal of Communication, ученые из Университета штата Мичиган и Университета Оклахомы провели 12 экспериментов с участием более 19 000 ИИ-участников. Целью было определить, насколько эффективно ИИ-персоны способны отличать правду от лжи.

«Цель данного исследования — понять, насколько ИИ может помочь в выявлении обмана и симулировать человеческие данные в социально-научных исследованиях, а также предостеречь профессионалов от использования больших языковых моделей для детекции лжи», — отметил Дэвид Марковиц, доцент кафедры коммуникаций в Колледже коммуникационных искусств и наук Университета штата Мичиган и ведущий автор исследования.

Для оценки способностей ИИ в сравнении с человеческими детекторами лжи исследователи опирались на Теорию правдивого дефолта (Truth–Default Theory, TDT). Эта теория предполагает, что люди в большинстве своем честны, и мы склонны верить другим. Такой подход позволил сравнить поведение ИИ с поведением людей в аналогичных ситуациях.

«Люди обладают естественным предубеждением в пользу правды — мы, как правило, предполагаем, что другие говорят правду, независимо от того, так ли это на самом деле», — пояснил Марковиц. «Эта тенденция считается эволюционно полезной, поскольку постоянное сомнение во всех потребовало бы больших усилий, затруднило бы повседневную жизнь и негативно сказалось бы на отношениях».

Для анализа суждений ИИ-персон исследователи использовали платформу Viewpoints AI, предоставляя ИИ аудиовизуальные или только аудиозаписи людей для оценки. ИИ-судьям предлагалось определить, лжет ли человек или говорит правду, и предоставить обоснование. Были изучены различные переменные, такие как тип медиа (аудиовизуальный или только аудио), контекстуальный фон (информация или обстоятельства, помогающие объяснить происходящее), базовые уровни правды/лжи (пропорции честного и обманчивого общения) и личность ИИ (созданные для имитации поведения и речи реальных людей), чтобы понять, как это влияет на точность обнаружения обмана.

Например, одно из исследований показало, что ИИ склонен к выявлению лжи: точность обнаружения лжи составила 85,8%, в то время как точность распознавания правды — всего 19,5%. В условиях коротких допросов точность ИИ в выявлении обмана была сопоставима с человеческой. Однако в неформальной обстановке (например, при оценке высказываний о друзьях) ИИ демонстрировал склонность к правде, что соответствовало показателям человека.

«Наша основная цель состояла в том, чтобы понять, что мы можем узнать об ИИ, включив его в эксперименты по выявлению обмана. В данном исследовании, с использованием выбранной нами модели, ИИ оказался чувствительным к контексту, но это не улучшило его способность распознавать ложь», — заключил Марковиц.

Окончательные выводы свидетельствуют о том, что результаты работы ИИ не соответствуют человеческим показателям и уровню точности, и «человечность» может быть важным пределом или граничным условием применения теорий детекции обмана. Исследование подчеркивает, что, хотя использование ИИ для выявления лжи может казаться беспристрастным, индустрии предстоит проделать значительную работу, прежде чем генеративный ИИ можно будет безопасно применять для этих целей.

«Легко понять, почему люди хотели бы использовать ИИ для выявления лжи — это кажется высокотехнологичным, потенциально справедливым и, возможно, непредвзятым решением. Но наше исследование показывает, что мы еще не достигли этого», — сказал Марковиц. «Как исследователям, так и профессионалам необходимо внести существенные улучшения, прежде чем ИИ сможет по-настоящему справляться с задачей выявления обмана».

Комментарии

Комментариев пока нет.