«Серые лебеди» ИИ: 3 риска, к которым нужно готовиться

Термин «черный лебедь» обозначает шокирующее событие, которое никто не предвидел до его наступления. Этот термин стал синонимом в анализе рисков после выхода книги Нассима Николаса Талеба «Черный лебедь» в 2007 году. Часто приводимый пример – атаки 11 сентября.

О «серых лебедях» слышали немногие. Происходя от работы Талеба, «серые лебеди» – это редкие, но более предсказуемые события. То есть, вещи, которые, как мы знаем, могут иметь огромное влияние, но мы не готовимся к ним должным образом (или не хотим этого делать).

COVID-19 был хорошим примером: прецеденты глобальной пандемии существовали, но мир все равно оказался застигнут врасплох.

Хотя Талеб иногда и использует этот термин, он, похоже, не является большим поклонником «серых лебедей». Ранее он выражал разочарование по поводу неправильного толкования его концепций, что может привести к поверхностному осмыслению более глубоких проблем истинно непредвиденных рисков.

Но трудно отрицать, что существует спектр предсказуемости, и некоторые крупные потрясения увидеть легче. Возможно, нигде это не проявляется так явно, как в мире искусственного интеллекта (ИИ).

Кладем все яйца в одну корзину

Все больше и больше будущее мировой экономики и человеческого процветания связано с одной технологической историей: революцией ИИ. Она превратила философские вопросы о риске в многотриллионную дилемму о том, как мы соотносим себя с возможными будущими.

Американская технологическая компания Nvidia, доминирующая на рынке чипов для ИИ, недавно превысила рыночную капитализацию в 5 триллионов долларов (около 7,7 триллиона австралийских долларов). «Семь сестер» – Amazon, Alphabet (Google), Apple, Meta, Microsoft, Nvidia и Tesla – сейчас составляют около 40% фондового индекса S&P 500.

Последствия краха этих компаний – и обвала фондового рынка – будут разрушительными на глобальном уровне, не только в финансовом плане, но и с точки зрения разрушенных надежд на прогресс.

«Серые лебеди» ИИ

Существует три широкие категории рисков – помимо экономических – которые могут привести к резкому завершению эйфории вокруг ИИ. Это «серые лебеди», потому что мы видим их приближение, но, возможно, не готовимся к ним (или не хотим этого делать).

  1. Шоки в области безопасности и терроризма

Способность ИИ генерировать код, вредоносные планы и убедительные фейковые медиа делает его множителем силы для злоумышленников. Дешевые, открытые модели могут помочь в разработке роев дронов, токсинов или кибератак. Deepfakes могут подделать военные приказы или распространить панику через фейковые трансляции.

Вероятно, ближе всего к «белому лебедю» – предсказуемому риску с относительно предсказуемыми последствиями – стоит агрессия Китая по отношению к Тайваню.

Крупнейшие мировые компании, занимающиеся ИИ, сильно зависят от полупроводниковой промышленности Тайваня для производства передовых чипов. Любой конфликт или блокада мгновенно заморозит глобальный прогресс.

  1. Правовые шоки

Некоторые ИИ-компании уже были привлечены к суду за предполагаемое использование текстов и изображений, извлеченных из интернета, для обучения своих моделей.

Одним из самых известных примеров является продолжающееся дело The New York Times против OpenAI, но существует множество аналогичных споров по всему миру.

Если крупный суд вынесет решение, что такое использование является коммерческой эксплуатацией, это может привести к огромным искам о возмещении убытков от издателей, художников и брендов.

Несколько знаковых судебных решений могут заставить крупные ИИ-компании приостановить дальнейшую разработку своих моделей – фактически, остановив строительство ИИ.

  1. Один прорыв – и слишком много: инновационные шоки

Инновации обычно приветствуются, но для компаний, инвестирующих в ИИ, они могут оказаться фатальными. Новые ИИ-технологии, которые автономно манипулируют рынками (или даже новости о том, что кто-то уже это делает), сделают существующие системы финансовой безопасности устаревшими.

А передовая, открытая, бесплатная модель ИИ может легко испарить прибыль сегодняшних лидеров отрасли. Мы мельком увидели эту возможность в январе, когда информация о относительно более дешевой и эффективной модели ИИ, разработанной в Китае, привела к падению акций американских технологических компаний.

Почему нам трудно готовиться к «серым лебедям»

Аналитики рисков, особенно в финансовой сфере, часто говорят в терминах исторических данных. Статистика может создать успокаивающую иллюзию последовательности и контроля. Но будущее не всегда ведет себя как прошлое.

Мудрые люди применяют разум к тщательно проверенным фактам и скептически относятся к рыночным нарративам.

Более глубокие причины психологические: наш разум эффективно кодирует информацию, часто полагаясь на один символ для представления очень сложных явлений.

Нам требуется много времени, чтобы перестроить наши представления о мире и поверить, что надвигающийся большой риск стоит того, чтобы действовать, – как мы видели на примере медленной реакции мира на изменение климата.

Как справиться с «серыми лебедями»?

Осведомленность о рисках важна. Но самое главное – не предсказание. Нам нужно проектировать системы, обладающие более глубокой устойчивостью, которую Талеб называет «антихрупкостью».

Талеб утверждает, что системы должны быть построены так, чтобы выдерживать – или даже выигрывать от – потрясений, а не полагаться на идеальное предвидение.

Для политиков это означает обеспечение того, чтобы регулирование, цепочки поставок и институты были построены для выживания в условиях различных крупных потрясений. Для отдельных лиц это означает диверсификацию своих ставок, сохранение открытых возможностей и сопротивление иллюзии, что история может рассказать нам все.

Прежде всего, самая большая проблема с бумом ИИ – это его скорость. Он меняет глобальный ландшафт рисков быстрее, чем мы можем отследить его «серых лебедей». Некоторые из них могут столкнуться и вызвать зрелищное разрушение, прежде чем мы сможем отреагировать.

Комментарии

Комментариев пока нет.

Информация

Опубликовано: 05 ноября 2025
Категория:
Просмотров: 12