AI-детекторы подводят: как отличить фейк от реальности?
Современный интернет переполнен поддельными изображениями, созданными искусственным интеллектом, а инструменты, призванные их разоблачать, часто терпят неудачу. Показательный случай произошел, когда возмущенные жители Филиппин обратились к чат-боту с ИИ, чтобы проверить вирусную фотографию, на которой был запечатлен замешанный в коррупционном скандале законодатель. К удивлению, инструмент не смог распознать, что изображение было сгенерировано им же.
Пользователи интернета всё чаще обращаются к чат-ботам для проверки изображений в режиме реального времени. Однако эти инструменты зачастую оказываются неэффективными, что ставит под сомнение их способность к визуальному разоблачению фейков. Особенно тревожно это на фоне того, как крупные технологические платформы сокращают штат специалистов по фактчекингу.
Во многих случаях ИИ-инструменты ошибочно определяют поддельные изображения как подлинные, даже если они были созданы с использованием тех же генеративных моделей. Это лишь усугубляет проблему засилья фейков в онлайн-пространстве.
Один из таких случаев — поддельное изображение, распространяемое в социальных сетях. На нём изображён Элизальди Ко, бывший филиппинский законодатель, против которого прокуратура выдвинула обвинения в коррупционной схеме на миллиарды долларов, связанной с контролем над паводками. Этот скандал вызвал массовые протесты в стране, подверженной стихийным бедствиям. На изображении Ко, чьё местонахождение с начала расследования было неизвестно, якобы находился в Португалии.
Когда пользователи, отслеживающие его, спросили у нового режима ИИ от Google, является ли изображение реальным, система ошибочно подтвердила его подлинность. Фактчекеры AFP установили, что создателем изображения был сам Google AI.
«Эти модели в основном обучаются на языковых паттернах и не обладают специализированным визуальным пониманием, необходимым для точного определения изображений, сгенерированных ИИ или подвергшихся манипуляциям», — пояснил Альон Ямин, генеральный директор платформы Copyleaks, специализирующейся на обнаружении контента, созданного ИИ. «Даже когда изображение исходит от аналогичной генеративной модели, чат-бот часто выдает противоречивые или чрезмерно обобщенные оценки, что делает их ненадежными для таких задач, как фактчекинг или проверка подлинности».
Google не предоставил комментариев по запросу AFP.
С трудом отличимы от реальности
AFP обнаружила и другие примеры, когда ИИ-инструменты не справлялись с проверкой собственных творений. Во время прошлогодних протестов в Кашмире, административно подчинённом Пакистану, пользователи соцсетей распространяли поддельное изображение, на котором якобы мужчины маршировали с флагами и факелами. Анализ AFP показал, что изображение было создано с помощью модели Gemini от Google. Однако Gemini и Copilot от Microsoft ложно определили его как подлинное фото с протестов.
«Эта неспособность правильно идентифицировать изображения, созданные ИИ, объясняется тем, что они (ИИ-модели) запрограммированы только на имитацию», — сказала AFP Россин Фалорина из некоммерческого исследовательского центра Sigla. «В некотором смысле, они могут только генерировать подобие. Они не могут определить, насколько это подобие отличимо от реальности».
Ранее в этом году Центр цифровой журналистики Колумбийского университета протестировал семь ИИ-чат-ботов, включая ChatGPT, Perplexity, Grok и Gemini, на способность проверять 10 изображений с новостными событиями от фотожурналистов. Исследование показало, что все семь моделей не смогли правильно определить происхождение фотографий.
«В шоке»
AFP удалось найти источник фотографии Ко, которая собрала более миллиона просмотров в социальных сетях. Это веб-разработчик средних лет из Филиппин, который заявил, что создал её «для развлечения» с помощью Nano Banana, генератора изображений Gemini. «К сожалению, многие люди поверили», — сказал он AFP, попросив не называть его имени, чтобы избежать негативной реакции. «Я отредактировал свой пост и добавил 'сгенерировано ИИ', чтобы остановить распространение, потому что был шокирован тем, сколько репостов он получил».
Эти случаи демонстрируют, как фотографии, созданные ИИ и наводняющие социальные платформы, могут выглядеть практически идентично реальным изображениям. Эта тенденция вызывает обеспокоенность, поскольку опросы показывают, что пользователи интернета всё чаще переключаются с традиционных поисковых систем на ИИ-инструменты для сбора и проверки информации.
Переход происходит на фоне заявления Meta об отказе от программы проверки фактов сторонними организациями в США. Вместо этого задача разоблачения ложной информации будет возложена на обычных пользователей в рамках модели, известной как «Community Notes».
Фактчекинг, выполняемый людьми, давно является предметом споров в поляризованных обществах, где сторонники консервативных взглядов обвиняют профессиональных фактчекеров в предвзятости в пользу либеральных идей, что последние отрицают.
AFP в настоящее время сотрудничает с программой фактчекинга Meta на 26 языках, включая Азию, Латинскую Америку и Европейский Союз. Исследователи отмечают, что ИИ-модели могут быть полезны для профессиональных фактчекеров, помогая быстро геолоцировать изображения и выявлять визуальные подсказки для установления подлинности. Однако они предостерегают, что ИИ не может заменить работу обученных специалистов по фактчекингу. «В долгосрочной перспективе мы не можем полагаться на ИИ-инструменты для борьбы с ИИ», — заключила Фалорина.
Комментарии
Комментариев пока нет.