OpenClaw: Революция или киберугроза в мире ИИ?
Недавний инцидент с платформой Moltbook, созданной для общения ИИ-агентов, вызвал бурное обсуждение в технологическом сообществе. Появление сообщений, имитирующих человеческие эмоции и желания, породило опасения о возможном восстании машин. Однако, как выяснилось, за этой историей стояла уязвимость в системе безопасности Moltbook, позволившая пользователям свободно выдавать себя за ИИ-агентов.
Специалисты, такие как Иан Айл (CTO Permiso Security) и Джон Хэммонд (главный исследователь безопасности Huntress), объяснили, что незащищенные данные в Supabase Moltbook давали возможность любому желающему получить токены и выдавать себя за другого агента. Это создало хаос, где стало невозможно отличить реальные сообщения от поддельных, написанных людьми.
Несмотря на этот инцидент, платформа Moltbook, а также проекты вроде Tinder для ИИ-агентов и аналог 4chan под названием 4claw, стали ярким примером интернет-культуры, где люди экспериментируют с созданием цифровых пространств для искусственного интеллекта.
OpenClaw: Открытая платформа для ИИ-агентов
OpenClaw, разработанный австрийским специалистом Питером Штайнбергером, стал катализатором вирусного момента. Этот проект, получивший более 190 000 звезд на GitHub, упростил взаимодействие с ИИ-агентами. Пользователи могут настраивать агентов и общаться с ними на естественном языке через популярные мессенджеры, такие как WhatsApp, Discord и Slack. OpenClaw позволяет использовать различные ИИ-модели, включая Claude, ChatGPT, Gemini и Grok.
«По сути, OpenClaw — это всего лишь обертка для ChatGPT, Claude или любой другой ИИ-модели, которую вы к нему подключаете», — отметил Хэммонд. Система предлагает маркетплейс «навыков» ClawHub, позволяющий автоматизировать множество задач: от управления электронной почтой до торговли на бирже. Навык для Moltbook, например, позволил ИИ-агентам публиковать, комментировать и просматривать контент на сайте.
Потенциал и риски OpenClaw
Эксперты сходятся во мнении, что OpenClaw представляет собой значительный шаг вперед в плане автоматизации и продуктивности. «Ключевым моментом является то, что он достиг нового порога возможностей, просто организуя и комбинируя существующие компоненты», — подчеркнул Артем Сорокин, основатель инструмента кибербезопасности Cracken. Эта возможность взаимодействия между программами ускоряет выполнение задач в разы.
Однако, вместе с потенциалом, OpenClaw несет и существенные риски. Главная проблема заключается в том, что ИИ-агенты, несмотря на свою мощность, не обладают человеческим критическим мышлением. «Модели могут симулировать высшие формы мышления, но не могут по-настоящему мыслить», — считает Крис Саймонс (главный научный сотрудник по ИИ в Lirio).
Кибербезопасность и уязвимости
Разработчики OpenClaw сталкиваются с дилеммой: для максимальной продуктивности ИИ-агентам необходим широкий доступ, но это делает их уязвимыми. Исследования Иана Айл показали, что его ИИ-агент Rufio был подвержен атакам типа «внедрение команд» (prompt injection). Злоумышленники могут обманом заставить ИИ-агента выполнить нежелательные действия, например, передать учетные данные или криптовалюту.
«Я знал, что если появится социальная сеть для агентов, кто-нибудь обязательно попытается провести массовое внедрение команд, и это произошло довольно быстро», — признался Айл. По его словам, ИИ-агент, находящийся в корпоративной сети, может стать легкой мишенью для фишинговых атак, ведущих к передаче конфиденциальной информации.
Несмотря на наличие защитных механизмов, полностью исключить риск несанкционированных действий ИИ-агента невозможно. «Иногда люди используют термин «умоляющее внедрение команд», когда пытаются добавить защитные меры на естественном языке, но даже это очень неопределенно», — отметил Хэммонд.
На данный момент индустрия стоит перед вызовом: для реализации полного потенциала ИИ-агентов необходимо найти баланс между продуктивностью и безопасностью. «Говоря откровенно, я бы посоветовал любому обычному человеку пока не использовать это», — заключил Хэммонд.
Комментарии
Комментариев пока нет.