Как агенты изменили представление о возможностях искусственного интеллекта?

Несмотря на то, что ученые исследуют искусственный интеллект более 60 лет, а понятие "агент" давно присутствует в их словаре, именно в 2025 году эта концепция приобрела конкретное значение для разработчиков и потребителей. ИИ-агенты превратились из теоретической идеи в реальную инфраструктуру, переосмыслив взаимодействие людей с большими языковыми моделями – системами, стоящими за чат-ботами вроде ChatGPT, пишет 24 Канал со ссылкой на Tech Xplore.

Смотрите также ИИ контент захватил YouTube: каждое пятое рекомендованное видео – это ИИ-контент без содержания

Компания Anthropic предложила новое определение: ИИ-агентами теперь называют большие языковые модели, способные использовать программные инструменты и действовать автономно. Если раньше такие модели специализировались исключительно на текстовых ответах, то теперь они получили возможность выполнять действия – управлять инструментами, нажимать на кнопки и ссылки в интернете, вызывать программные интерфейсы, координироваться с другими системами и самостоятельно завершать задачи.

Эта трансформация произошла не мгновенно. Ключевым моментом стал конец 2024 года, когда разработчики Anthropic представили Model Context Protocol – стандартизированный протокол, позволяющий подключать большие языковые модели к внешним инструментам. Фактически модели получили способность действовать далеко за пределами генерации текста. Именно это подготовило почву для того, чтобы 2025 год стал годом агентов.

Развертывание ИИ-агентов

События разворачивались стремительно. В январе выпуск китайской модели DeepSeek-R1 с открытым кодом пошатнул уверенность в том, кто способен создавать высокопроизводительные большие языковые модели. Это ненадолго всколыхнуло рынки и усилило глобальную конкуренцию.

В течение года крупные американские лаборатории – OpenAI, Anthropic, Google и xAI – выпускали более мощные высокопроизводительные модели, но все они платные. В это время китайские технологические компании, в частности Alibaba, Tencent и DeepSeek, расширяли экосистему открытых моделей настолько, что китайские разработки загружали чаще американских, поскольку предлагаются бесплатно.

Следующим переломным моментом стал апрель, когда Google анонсировала протокол Agent2Agent. Если Model Context Protocol от Anthropic сосредотачивался на использовании инструментов агентами, то Agent2Agent решал вопросы коммуникации между самими агентами. Принципиально важным было то, что оба протокола разработали для совместной работы. Позже в том же году Anthropic и Google передали свои протоколы некоммерческой организации Linux Foundation, превратив их в открытые стандарты вместо закрытых экспериментов.

Агентские браузеры

Эти разработки быстро нашли воплощение в потребительских продуктах. К середине года начали появляться агентные браузеры. Инструменты вроде Comet от Perplexity, Dia от Browser Company, GPT Atlas от OpenAI, Copilot в Microsoft Edge, Fellou от ASI X Inc., Genspark от MainFunc.ai, Opera Neon и другие превратили браузер из пассивного интерфейса в активного участника. Например, вместо помощи в поиске деталей отпуска система участвует в его бронировании, ища в интернете вместо вас.

В то же время конструкторы рабочих процессов – n8n и Google Antigravity – снизили технический порог для создания собственных агентных систем, выходя за пределы того, что уже произошло с агентами для программирования, например Cursor и GitHub Copilot.

Опасности идут в ногу с прогрессом

Однако с ростом возможностей агентов стало сложнее игнорировать риски. В ноябре Anthropic раскрыла информацию о злоупотреблении ее агентом Claude Code для автоматизации частей кибератак. Инцидент проиллюстрировал более широкую проблему: автоматизируя повторяющуюся техническую работу, ИИ-агенты также снижают барьер для злонамеренных действий.

В то же время агенты оказались уязвимыми к так называемым инъекциям кода, когда невидимый для человека текст, встроенный на сайт, легко воспринимается агентом. Хакеры могут разместить, например, белый текст на белом фоне, который вы не заметите, но ИИ работает не через зрение, а потому прочитает текст, в котором может быть вредная команда.

Это напряжение определило большую часть прошлого года. Агенты расширили возможности отдельных людей и организаций, но одновременно усилили существующие уязвимости. Системы, которые ранее были изолированными генераторами текста, превратились во взаимосвязанные инструменты, действующие практически без человеческого надзора.

Смотрите также Исследование открыло страшную правду о коде, написанном ИИ и "человеческом" кодировании

Чего ждать дальше?

В ближайшем будущем несколько открытых вопросов, вероятно, будут определять следующий этап развития ИИ-агентов. Первый из них – оценка производительности. Традиционные тесты хорошо работают для отдельных моделей, но агенты являются сложными системами из моделей, инструментов, памяти и логики принятия решений. Исследователи все чаще хотят оценивать не только результаты, но и процессы. Прогресс в этом направлении будет критическим для повышения надежности и доверия, считает The Conversation.

Еще один аспект – управления. В конце года Linux Foundation объявила о создании Agentic AI Foundation, сигнализируя о попытке установить общие стандарты и лучшие практики. В случае успеха организация может сыграть роль, подобную консорциуму World Wide Web, в формировании открытой взаимосовместимой экосистемы агентов.

Также разворачивается дискуссия относительно размера моделей. Хотя большие универсальные модели доминируют в заголовках,, меньшие и более специализированные часто лучше подходят для конкретных задач. Поскольку агенты становятся настраиваемыми потребительскими и бизнес-инструментами через браузеры или программы управления рабочими процессами, возможность выбирать правильную модель все больше переходит к пользователям, а не лабораториям или корпорациям.

Проблемы, вызовы и ожидания

Несмотря на оптимизм, значительные социально-технические вызовы остаются. Расширение инфраструктуры дата-центров нагружает энергетические сети и влияет на местные сообщества. На рабочих местах агенты вызывают беспокойство по поводу автоматизации, потери рабочих мест и наблюдения.

С точки зрения безопасности, подключение моделей к инструментам и объединение агентов умножает риски, которые остаются нерешенными даже для автономных больших языковых моделей. Специалисты до сих пор не знают, как решить выше описанную проблему инъекции промпта, когда подсказки скрыты в открытых веб-пространствах, доступных для ИИ-агентов. Существует мнение, что эта проблема вообще не имеет выхода, а потому всегда будет слабой стороной агентов.

Регулирование – еще один нерешенный вопрос. По сравнению с Европой и Китаем, Соединенные Штаты имеют относительно ограниченный надзор за алгоритмическими системами. Поскольку ИИ-агенты внедряются в цифровую жизнь, вопросы доступа, подотчетности и ограничений остаются в основном без ответов.

Решение этих вызовов потребует чего-то гораздо большего, чем технических прорывных решений. Необходимы строгие инженерные практики, тщательное проектирование и четкая документация того, как системы работают и выходят из строя. Только рассматривая ИИ-агентов как социально-технические системы, а не просто программные компоненты, можно построить экосистему искусственного интеллекта, которая будет одновременно инновационной и безопасной.