AI-фейки против урагана: угроза для информации
По мере приближения урагана "Мелисса" к Ямайке, социальные сети оказались переполнены видеороликами, созданными искусственным интеллектом. Эти фейковые материалы отвлекают внимание от критически важной информации о безопасности, касающейся мощного шторма пятой категории.
Агентство AFP выявило множество подделок, многие из которых несли водяные знаки модели генерации видео от OpenAI, Sora. Видео изображали вымышленные сценарии: от драматических новостных репортажей и кадров сильного наводнения до акул в воде и сцен человеческих страданий. Другие ролики показывали жителей острова, зачастую с ярко выраженными ямайскими акцентами, будто бы празднующих, катающихся на лодках, водных лыжах или купающихся, тем самым преуменьшая угрозу, которую, по предупреждениям синоптиков, мог нести самый сильный шторм в истории острова.
Министр информации Ямайки, сенатор Дана Моррис Диксон, сообщила, что совместно с другими министрами они проводят брифинг для предоставления "корректной информации" о приближающемся шторме. "Я состою во множестве групп в WhatsApp, и вижу все эти видео. Многие из них — фейковые", — заявила Диксон. "Поэтому мы призываем вас, пожалуйста, прислушивайтесь к официальным каналам".
Даже безобидные на первый взгляд подделки могут заглушить важные оповещения о безопасности или заставить зрителей недооценить опасность сильных штормов, отмечают эксперты. "Этот шторм — огромный, он, вероятно, вызовет катастрофические разрушения, а фейковый контент подрывает серьезность правительственного сообщения о необходимости подготовки", — сказала Эми МакГоверн, профессор метеорологии Университета Оклахомы, чьи исследования сосредоточены на применении ИИ для улучшения прогнозирования экстремальных погодных явлений. "В конечном итоге такой фейковый контент приведет к гибели людей и потере имущества", — добавила она.
Ролики, обнаруженные AFP, распространялись преимущественно в TikTok, где лишь некоторые из них имели соответствующую маркировку, несмотря на политику платформы, требующую от пользователей раскрывать информацию о реалистичном контенте, созданном ИИ. TikTok удалил более двух десятков таких видео, а также несколько аккаунтов, посвященных их распространению, после того, как AFP уведомило платформу. Другие примеры были обнаружены в Facebook и Instagram, хотя политика материнской компании Meta также предписывает маркировку для фотореалистичных видео, созданных с помощью ИИ.
Хани Фарид, соучредитель компании GetReal Security и профессор Калифорнийского университета в Беркли, считает, что новые модели генерации видео с помощью ИИ "ускорили распространение убедительных подделок". Приложения позволяют пользователям создавать ролики с гиперреалистичными изображениями людей. AFP обратилось за комментарием к OpenAI, но не получило немедленного ответа. Многие зрители, судя по комментариям под видео, казались неосведомленными о том, что изображения были созданы ИИ, несмотря на водяной знак Sora.
"Парадокс информационной эпохи заключается в том, что мы становимся менее информированными по мере увеличения объема информации", — отметил Фарид.
Комментарии
Комментариев пока нет.