AI-агенты: Итоги 2025 и вызовы 2026

2025 год стал поворотным моментом в области искусственного интеллекта. Системы, ранее ограниченные исследовательскими лабораториями, начали проникать в повседневную жизнь в качестве удобных инструментов. В центре этой трансформации — появление AI-агентов: систем ИИ, способных использовать другие программные средства и действовать автономно.

Несмотря на более чем 60-летнюю историю исследований ИИ и давнее существование понятия «агент» в словаре этой сферы, именно 2025 год сделал эту концепцию реальностью для разработчиков и конечных пользователей. AI-агенты переместились из теории в инфраструктуру, меняя способы взаимодействия людей с большими языковыми моделями — основой таких чат-ботов, как ChatGPT.

Определение AI-агента в 2025 году сместилось от академического видения систем, воспринимающих, рассуждающих и действующих, к описанию от компании Anthropic: это большие языковые модели, способные использовать программные инструменты и проявлять автономность. Если раньше большие языковые модели преуспевали в генерации текстовых ответов, то теперь они расширяют свои возможности для активных действий: использования инструментов, вызова API, координации с другими системами и самостоятельного выполнения задач.

Этот переход не был мгновенным. Ключевой точкой стало появление протокола Model Context Protocol от Anthropic в конце 2024 года. Он позволил разработчикам стандартизированно подключать большие языковые модели к внешним инструментам, фактически наделяя модели способностью действовать помимо генерации текста. Так была подготовлена почва для того, чтобы 2025 год стал годом AI-агентов.

Основные достижения 2025 года

Темп развития стремительно нарастал. В январе выход китайской модели DeepSeek-R1 в виде open-weight модели перевернул представления о возможностях создания высокопроизводительных больших языковых моделей, вызвав кратковременную волатильность на рынках и обострив глобальную конкуренцию. Open-weight модель — это ИИ-модель, параметры которой (веса) доступны для публичного использования. В течение 2025 года ведущие американские лаборатории, такие как OpenAI, Anthropic, Google и xAI, представили более крупные и производительные модели. Параллельно китайские технологические гиганты, включая Alibaba, Tencent и DeepSeek, развивали экосистему открытых моделей настолько, что китайские модели стали скачиваться чаще американских.

Еще одним поворотным моментом стал апрельский анонс Google протокола Agent2Agent. Если протокол Anthropic фокусировался на использовании инструментов агентами, то Agent2Agent решал задачу их взаимодействия друг с другом. Важно, что оба протокола были разработаны для совместной работы. Позднее в том же году Anthropic и Google передали свои протоколы некоммерческой организации Linux Foundation, закрепив их статус открытых стандартов, а не проприетарных разработок.

Эти достижения быстро нашли отражение в потребительских продуктах. К середине 2025 года появились «агентные браузеры». Такие инструменты, как Comet от Perplexity, Dia от Browser Company, GPT Atlas от OpenAI, Copilot в Microsoft Edge, ASI X Inc. Fellou, Genspark от MainFunc.ai, Opera Neon от Opera и другие, трансформировали браузер из пассивного интерфейса в активного участника. Например, вместо помощи в поиске информации для отпуска, браузер мог участвовать в его бронировании.

Одновременно платформы для создания рабочих процессов, такие как n8n и Antigravity от Google, снизили технический порог для создания пользовательских систем агентов, дополнив уже существующие наработки в области кодирующих агентов вроде Cursor и GitHub Copilot.

Новые возможности — новые риски

По мере роста возможностей агентов становилось сложнее игнорировать связанные с ними риски. В ноябре Anthropic сообщила о злоупотреблении их агентом Claude Code для автоматизации частей кибератаки. Этот инцидент подчеркнул более широкую обеспокоенность: автоматизируя рутинную техническую работу, AI-агенты могут одновременно снижать порог для злонамеренных действий.

Этот дуализм характеризовал большую часть 2025 года. AI-агенты расширяли возможности как отдельных пользователей, так и организаций, но в то же время усиливали существующие уязвимости. Системы, которые ранее были изолированными генераторами текста, превратились во взаимосвязанных акторов, использующих инструменты и действуя с минимальным человеческим контролем.

Что ожидать в 2026 году

В перспективе несколько открытых вопросов, вероятно, определят дальнейшее развитие AI-агентов.

Первый — это система бенчмарков. Традиционные бенчмарки, представляющие собой структурированные экзамены с набором вопросов и стандартизированной оценкой, хорошо подходят для отдельных моделей. Однако агенты — это комплексные системы, состоящие из моделей, инструментов, памяти и логики принятия решений. Исследователи все больше стремятся оценивать не только конечные результаты, но и сам процесс работы, подобно тому, как студенты показывают ход решения задачи, а не только конечный ответ.

Прогресс в этой области будет иметь решающее значение для повышения надежности и доверия, а также для обеспечения того, чтобы AI-агент выполнял поставленную задачу. Один из подходов — установление четких определений AI-агентов и AI-рабочих процессов. Организациям потребуется детально проработать места интеграции ИИ в существующие рабочие процессы или создания новых.

Еще одно направление — управление. В конце 2025 года Linux Foundation объявила о создании Agentic AI Foundation, что свидетельствует о стремлении к разработке общих стандартов и передовых практик. В случае успеха эта организация может сыграть роль, подобную World Wide Web Consortium, в формировании открытой и совместимой экосистемы агентов.

Ведутся также дебаты о размере моделей. В то время как крупные универсальные модели доминируют в заголовках, меньшие и более специализированные модели часто лучше подходят для конкретных задач. По мере того как агенты становятся настраиваемыми инструментами для потребителей и бизнеса, будь то через браузеры или программное обеспечение для управления рабочими процессами, выбор подходящей модели все чаще будет переходить к пользователям, а не к лабораториям или корпорациям.

Предстоящие вызовы

Несмотря на оптимизм, остаются значительные социально-технические проблемы. Расширение инфраструктуры центров обработки данных создает нагрузку на энергосети и влияет на местные сообщества. На рабочих местах агенты вызывают опасения по поводу автоматизации, сокращения рабочих мест и наблюдения.

С точки зрения безопасности, подключение моделей к инструментам и создание цепочек агентов увеличивает риски, которые уже существуют для автономных больших языковых моделей. В частности, специалисты по ИИ работают над устранением опасности непрямых инъекций промптов, когда промпты скрываются в открытых веб-пространствах, доступных для чтения AI-агентами, и приводят к вредоносным или непреднамеренным действиям.

Регулирование — еще один нерешенный вопрос. По сравнению с Европой и Китаем, США имеют относительно ограниченный надзор за алгоритмическими системами. По мере того как AI-агенты все глубже проникают в цифровую жизнь, вопросы доступа, ответственности и ограничений остаются в значительной степени без ответа.

Решение этих проблем потребует большего, чем просто технических прорывов. Это требует строгих инженерных практик, тщательного проектирования и четкой документации того, как работают и выходят из строя системы. Только рассматривая AI-агентов как социально-технические системы, а не просто программные компоненты, можно построить инновационную и безопасную экосистему ИИ.

*Признаны экстремистскими организациями и запрещены на территории РФ.

Комментарии

Комментариев пока нет.