ИИ создает неотличимые фото: доверие к визуальным данным под угрозой

Новое исследование показывает, что искусственный интеллект научился генерировать изображения реальных людей настолько искусно, что отличить их от подлинных фотографий практически невозможно.

С помощью моделей ИИ, таких как ChatGPT и DALL·E, группа исследователей из Университета Суонси, Линкольнского университета и Университета Ариэль в Израиле создала высокореалистичные изображения как вымышленных, так и известных личностей, включая знаменитостей.

Ученые обнаружили, что участники экспериментов не могли надежно отличить сгенерированные изображения от настоящих фотографий, даже когда были знакомы с внешностью человека. По результатам четырех отдельных экспериментов, добавление сравнительных фотографий или предварительная осведомленность участников о лицах давали лишь ограниченный эффект.

Исследование, опубликованное в журнале Cognitive Research: Principles and Implications, подчеркивает новый уровень «реализма дипфейков». Оно демонстрирует, что ИИ способен создавать убедительные поддельные изображения реальных людей, что может подорвать доверие к визуальным медиа.

Профессор Джереми Три из Школы психологии отметил: «Исследования уже показывали, что изображения вымышленных людей, созданные с помощью ИИ, неотличимы от реальных фотографий. Но в нашем исследовании мы пошли дальше, создавая синтетические изображения реальных людей».

«Тот факт, что повседневные инструменты ИИ способны на это, вызывает не только серьезные опасения по поводу дезинформации и доверия к визуальным медиа, но и настоятельную необходимость в надежных методах обнаружения», — добавил он.

В одном из экспериментов, в котором приняли участие люди из США, Канады, Великобритании, Австралии и Новой Зеландии, испытуемым показывали серию лицевых изображений — как реальных, так и искусственно сгенерированных, — и просили определить, какие из них подлинные. По мнению исследователей, тот факт, что участники принимали новые лица, созданные ИИ, за реальные фотографии, свидетельствует об их высокой правдоподобности.

В другом эксперименте участникам предлагалось отличить подлинные снимки голливудских звезд, таких как Пол Радд и Оливия Уайлд, от их компьютерно-сгенерированных версий. Результаты исследования снова показали, насколько сложно людям бывает распознать аутентичные изображения.

Исследователи полагают, что способность ИИ создавать новые/синтетические изображения реальных людей открывает множество возможностей как для использования, так и для злоупотребления. Например, создатели могут генерировать изображения знаменитостей, рекламирующих определенный продукт или поддерживающих политическую позицию, что может повлиять на общественное мнение как о личности, так и о бренде/организации, которые они якобы представляют.

Профессор Три подытожил: «Это исследование показывает, что ИИ может создавать синтетические изображения как новых, так и известных лиц, которые большинство людей не могут отличить от реальных фотографий. Знакомство с лицом или наличие эталонных изображений мало помогало в обнаружении подделок. Именно поэтому нам срочно нужно искать новые способы их выявления».

«Хотя автоматизированные системы со временем могут превзойти людей в этой задаче, пока что зрителям предстоит самим судить, что реально», — заключил он.

Комментарии

Комментариев пока нет.

Информация

Опубликовано: 06 ноября 2025
Категория:
Просмотров: 10