AI-регулирование: почему гонка вооружений зашла в тупик

События последних дней вокруг компании Anthropic, занимающейся разработкой искусственного интеллекта, вызвали бурную реакцию в экспертном сообществе. Президент США издал указ о немедленном прекращении использования технологий Anthropic всеми федеральными агентствами. Министерство обороны, ссылаясь на закон о национальной безопасности, запретило компании сотрудничество с Пентагоном и его партнерами. Причина такого шага – отказ Anthropic использовать свои разработки для массовой слежки за гражданами США или для создания автономных вооружений, способных принимать решения об уничтожении целей без участия человека.

Этот прецедент имеет серьезные последствия для Anthropic, которая может потерять контракт на сумму до 200 миллионов долларов и быть отстранена от работы с другими клиентами. Компания уже заявила о намерении оспорить решение Пентагона в суде.

Макс Тегмарк, физик из Массачусетского технологического института и основатель Института будущего жизни, уже много лет предупреждает о том, что стремительное развитие ИИ опережает возможности его регулирования. По его мнению, сложившаяся ситуация – следствие самостоятельного выбора компаний, включая Anthropic, OpenAI и Google DeepMind, отказаться от внедрения обязательных правил и полагаться на саморегуляцию.

«Дорога в ад вымощена благими намерениями», – комментирует Тегмарк, вспоминая, как десять лет назад ИИ воспринимался как инструмент для решения глобальных проблем, таких как лечение рака или рост благосостояния. Сегодня же американское правительство вынуждено ограничивать использование этих технологий из-за потенциальной угрозы массовой слежки и бесконтрольных «роботов-убийц».

Тегмарк критикует не только Anthropic, но и другие ведущие ИИ-компании за лицемерие. По его словам, несмотря на публичные заявления о приверженности безопасности, ни одна из них не поддержала введение обязательного регулирования, аналогичного тому, что существует в других отраслях. Вместо этого они последовательно выступали против законодательных ограничений, предлагая вместо этого полагаться на собственные обещания.

«Мы имеем меньше регулирования в области ИИ, чем в сфере продажи сэндвичей», – иронизирует Тегмарк. Он проводит параллель с пищевой промышленностью, где строгие санитарные нормы защищают потребителей. В сфере ИИ же, по его мнению, отсутствуют действенные механизмы контроля, что может привести к катастрофическим последствиям, сравнимым с историями с талидомидом или табачными компаниями.

Аргумент о «гонке с Китаем», который часто используют компании для оправдания отсутствия регулирования, Тегмарк считает несостоятельным. Он указывает, что сам Китай активно ограничивает развитие определенных видов ИИ, опасаясь их влияния на общество. Более того, он подчеркивает, что неконтролируемый сверхинтеллект представляет собой угрозу национальной безопасности для любой страны, включая США.

Тегмарк призывает рассматривать сверхинтеллект не как актив, а как потенциальную угрозу. Он считает, что подобные опасения начинают разделять представители американского сообщества национальной безопасности. Он проводит аналогию с Холодной войной, где гонка вооружений привела к опасному противостоянию, но война интеллектов могла бы иметь гораздо более разрушительные последствия.

Темпы развития ИИ, по мнению Тегмарка, поражают. Если еще шесть лет назад эксперты предсказывали появление ИИ человеческого уровня не раньше 2040-2050 годов, то сейчас мы уже наблюдаем значительный прогресс. Он отмечает, что даже при текущих темпах, системы, сравнимые с GPT-4 и GPT-5, демонстрируют уровень развития, который может привести к серьезным изменениям на рынке труда уже в ближайшие годы.

Ситуация вокруг Anthropic стала поворотным моментом, который заставит крупные ИИ-компании продемонстрировать свою реальную позицию. Ответы OpenAI, Google и xAI на происходящее покажут, готовы ли они поддержать принципы безопасности или будут следовать своим коммерческим интересам.

Несмотря на тревожные тенденции, Тегмарк сохраняет оптимизм. Он видит возможность для «золотого века» ИИ, если компании начнут относиться к своим разработкам ответственно, пройдут независимую проверку безопасности и продемонстрируют способность контролировать создаваемые ими системы. Это позволит использовать все преимущества ИИ, избежав экзистенциальных рисков.

Комментарии

Комментариев пока нет.