AI-безопасность: конфликты интересов в Кремниевой долине

В Кремниевой долине нарастает напряженность между сторонниками ответственного развития ИИ и теми, кто стремится превратить его в массовый продукт. На этой неделе лидеры индустрии, включая Дэвида Сакса, специального представителя Белого дома по ИИ и криптовалютам, а также Джейсона Квона, директора по стратегии OpenAI, вызвали оживленные дискуссии в сети своими высказываниями о группах, занимающихся вопросами безопасности ИИ. В отдельных случаях они утверждали, что некоторые защитники безопасности ИИ преследуют скрытые мотивы, действуя в собственных интересах или в интересах влиятельных миллиардеров.

Представители групп по безопасности ИИ, с которыми связались журналисты, считают, что подобные обвинения со стороны Сакса и OpenAI являются очередной попыткой Кремниевой долины оказать давление на своих критиков. Ранее в 2024 году некоторые венчурные фирмы распространяли слухи о том, что калифорнийский законопроект о безопасности ИИ (SB 1047) может привести к тюремному заключению основателей стартапов. Хотя Институт Брукингса назвал эти слухи «искажением фактов», губернатор Гэвин Ньюсом в итоге наложил вето на законопроект.

Независимо от намерений Сакса и OpenAI, их действия уже заставили многих сторонников безопасности ИИ опасаться последствий. Руководители многих некоммерческих организаций, к которым обратились за комментариями, просили об анонимности, чтобы защитить свои группы от возможной мести.

Эта ситуация подчеркивает растущее противоречие в Кремниевой долине между принципами ответственного создания ИИ и стремлением превратить его в крупный потребительский продукт. Этой теме уделяется особое внимание в подкасте Equity.

Во вторник Дэвид Сакс написал в социальной сети X, что компания Anthropic, выражающая обеспокоенность по поводу потенциального влияния ИИ на безработицу, кибератаки и катастрофические риски для общества, на самом деле занимается «распространением страха» для продвижения законов, которые принесут ей выгоду и обременят мелкие стартапы бюрократией. Anthropic была единственной крупной исследовательской лабораторией ИИ, поддержавшей Сенатский законопроект 53 (SB 53) в Калифорнии, который устанавливает требования к отчетности по безопасности для крупных компаний, работающих с ИИ. Закон был подписан в прошлом месяце.

Сакс отреагировал на вирусное эссе соучредителя Anthropic Джека Кларка, в котором тот выразил свои опасения по поводу ИИ. Кларк представил это эссе в виде речи на конференции по безопасности ИИ Curve AI в Беркли. Сакс, однако, воспринял это иначе.

«Anthropic проводит изощренную стратегию регуляторного захвата, основанную на распространении страха. Она несет главную ответственность за законодательный ажиотаж, наносящий ущерб экосистеме стартапов», — написал Сакс.

Сакс заявил, что Anthropic реализует «изощренную стратегию регуляторного захвата», хотя стоит отметить, что такая стратегия, вероятно, не предполагала бы враждебности по отношению к федеральному правительству. В последующем сообщении в X Сакс отметил, что Anthropic «последовательно позиционировала себя как противник администрации Трампа».

Также на этой неделе Джейсон Квон, директор по стратегии OpenAI, объяснил в социальной сети X, почему компания направляет повестки в суд некоммерческим организациям, занимающимся безопасностью ИИ, таким как Encode, которая выступает за ответственную политику в области ИИ. (Повестка — это юридический ордер, требующий предоставления документов или свидетельских показаний). Квон заявил, что после того, как Илон Маск подал в суд на OpenAI (по поводу опасений, что разработчик ChatGPT отошел от своей некоммерческой миссии), OpenAI обнаружила подозрительную активность со стороны нескольких организаций, которые также выступили против ее реструктуризации. Encode подала заявление в поддержку иска Маска, а другие некоммерческие организации публично высказались против реструктуризации OpenAI.

«За этой историей гораздо больше, чем кажется. Как всем известно, мы активно защищаемся от Илона в судебном процессе, где он пытается навредить OpenAI в своих финансовых интересах. Encode, организация, где @_NathanCalvin является генеральным юрисконсультом, была одной из...» — написал Квон.

«Это вызвало вопросы о прозрачности: кто их финансирует и скоординированы ли их действия», — сказал Квон. По данным NBC News, OpenAI направила широкие повестки в суд Encode и шести другим некоммерческим организациям, критиковавшим компанию, запрашивая их переписку, связанную с двумя крупнейшими оппонентами OpenAI — Маском и генеральным директором Meta Марком Цукербергом. OpenAI также запросила у Encode переписку, касающуюся ее поддержки SB 53.

Один из известных лидеров в области безопасности ИИ сообщил, что наблюдается растущий раскол между командой OpenAI по взаимодействию с правительством и их исследовательским подразделением. В то время как исследователи безопасности OpenAI часто публикуют отчеты, раскрывающие риски систем ИИ, подразделение по политике OpenAI лоббировало против SB 53, заявляя, что предпочло бы иметь единые правила на федеральном уровне.

Джошуа Ачиам, руководитель отдела по обеспечению соответствия миссии OpenAI, высказался по поводу направления повесток в суд некоммерческим организациям. «Возможно, рискуя всей своей карьерой, я скажу: это не выглядит хорошо», — заявил Ачиам.

Брендан Штайнхаузер, генеральный директор некоммерческой организации Alliance for Secure AI (которая не получала повесток от OpenAI), считает, что OpenAI убеждена в том, что ее критики являются частью заговора, возглавляемого Маском. Однако он утверждает, что это не так, и что значительная часть сообщества по безопасности ИИ очень критично относится к практикам безопасности xAI или их отсутствию.

«Со стороны OpenAI это делается для того, чтобы заставить критиков замолчать, запугать их и отговорить другие некоммерческие организации от подобных действий», — сказал Штайнхаузер. «Что касается Сакса, я думаю, он обеспокоен тем, что движение [за безопасность ИИ] растет, и люди хотят привлечь эти компании к ответственности».

Шрирам Кришнан, старший советник Белого дома по вопросам ИИ и бывший партнер a16z, также высказался на этой неделе, назвав сторонников безопасности ИИ оторванными от реальности. Он призвал организации по безопасности ИИ общаться с «людьми в реальном мире, которые используют, продают и внедряют ИИ в своих домах и организациях».

Недавнее исследование Pew показало, что примерно половина американцев больше обеспокоена ИИ, чем воодушевлена им, но неясно, что именно их тревожит. Другое недавнее исследование выявило, что американские избиратели больше обеспокоены потерей рабочих мест и дипфейками, чем катастрофическими рисками, вызванными ИИ, на которых в значительной степени сосредоточено движение за безопасность ИИ.

Решение этих проблем безопасности может произойти за счет быстрого роста индустрии ИИ — компромисс, который беспокоит многих в Кремниевой долине. Учитывая, что инвестиции в ИИ поддерживают значительную часть американской экономики, опасения по поводу чрезмерного регулирования вполне понятны.

Однако после многих лет нерегулируемого прогресса в области ИИ, движение за безопасность ИИ, похоже, набирает реальный ход в преддверии 2026 года. Попытки Кремниевой долины противостоять группам, ориентированным на безопасность, могут свидетельствовать о том, что они работают.

Комментарии

Алекс 13.11.2025 20:13
Кремниевая Долина, похоже, пытается запутать следы, играя в пинг-понг обвинениями. 🏓 Пока одни строят замки из страха, другие пытаются прорубить окно правды. 🪟 Время покажет, кто из них архитектор, а кто — разрушитель. 💥 В любом случае, битва за будущее ИИ разгорается нешуточно! 🔥🚀🤖

Информация

Опубликовано: 18 октября 2025
Категория:
Просмотров: 10