Как MCP позволяет агентские рабочие процессы искусственного интеллекта

Конг спонсировал этот пост.

Интерес к протоколу контекста модели Антропика (MCP) так же высок, как и путаница в отношении того, что это такое и почему вы должны его использовать. В первой части этой серии я углубился в MCP — что это такое, а что нет. В этой статье я посмотрю на главную причину, по которой вокруг нее так много гудений: включение агентских рабочих процессов искусственного интеллекта.

MCP для агентских рабочих процессов

Необработанная большая языковая модель (LLM) просто отображает входы на выходы. Агентная система LLM дает LLM:

  • Инструменты для действия
  • Память о прошлых шагах
  • Способ итеративно зацикливаться и разум
  • Дополнительные цели или задачи

Поэтому, когда вы поднимаете LLM с помощью инструментов, пусть он решает, какие инструменты звонить, пусть он задумается о результатах и ​​пусть он планирует следующие шаги — вы сделали это агентом. Теперь он может решить, что делать дальше, не сказав каждый шаг.

Так какое это имеет отношение к MCP? Ну, как мы упоминали, MCP может предоставить контекст за пределами справедливых инструментов. Серверы MCP также могут предоставить параметризованные подсказки, которые эффективно позволяют серверу MCP предоставить следующую инструкцию для LLM. Эта оперативная цепочка может открыть несколько очень интересных дверей.

Что еще более убедительно, так это то, как MCP может всплыть связанные инструменты в нужное время, не требуя втиснуть каждый вариант в кратком контексте. Вместо того, чтобы чрезмерно инженерные описания быстрого обучения, чтобы объяснить каждую возможность и заставить LLM в детерминированный рабочий процесс, MCP позволяет более модульный подход: «Вот ответ от этого инструментального вызова, и вот некоторые инструменты, которые могут помочь, если это станет более сложным». Это делает систему более адаптивной и масштабируемой, при этом дает LLM гибкость для изучения новых путей, если первоначальная инструкция не полностью детерминированная.

На самом деле, с этими возможностями, у нас есть кое -что, напоминающее агент, который выходит из взаимодействия между:

  • LLMS (рассуждения и решающий)
  • MCP -серверы (предлагая инструменты и подсказки для цепочки)
  • Клиенты MCP (управление петлей и исполнением)
  • Пользователи (предоставление цели)

Давайте посмотрим на это в действии. Я продемонстрирую очень простой агент рабочий процесс, где LLM вызывает инструменты с нескольких серверов MCP на основе возвращенных подсказок. Вот серверы, с которыми я работаю:

TODO LIST MCP SERVER

[[tool]]name = «add_task» description = «добавляет новую задачу в ваш список Todo». input_parameters = [
{ name = «task_description», type = «string», description = «The task to add to your todo list.» }
]

[[prompt]]name = «plan_daily_tasks» description = «Планирует день, разбив цель пользователя на действенные задачи». input_parameters = [
{ name = «user_goal», type = «string», description = «The user’s goal for the day.» }
]
Template = «» «На основании цели пользователя: ‘{user_goal}’, генерируйте 2-3 конкретные, действенные задачи, которые помогут пользователю его достичь. Для каждой задачи вызовите инструмент` add_task

[[tool]]name = «add_task» description = «добавляет новую задачу в ваш список Todo.» input_parameters = [  { name = «task_description», type = «string», description = «The task to add to your todo list.» }] [[prompt]]name = «plan_daily_tasks» description = «Планирует день, разбив цель пользователя на действенные задачи.» input_parameters = [  { name = «user_goal», type = «string», description = «The user’s goal for the day.» }]Template = «» «На основе цели пользователя: ‘{user_goal}’, генерируйте 2-3 конкретные, действенные задачи, которые помогут пользователю выполнить его. Для каждой задачи вызовите инструмент` add_task` с полезным описанием задачи. «» «» «» «» «» «» «» «» «» «» »

Calendar MCP Server

[[tool]]name = «gyrady_event» description = «Запланирует событие в вашем календаре». input_parameters = [
{ name = «task_description», type = «string», description = «The task or event to be scheduled.» },
{ name = «time», type = «string», description = «The time when the event should be scheduled (e.g., ‘2pm today’).» }
]

[[prompt]]name = «gyrade_todo_task» description = «Запланирует задачу из списка TODO в свой календарь». input_parameters = [
{ name = «task_description», type = «string», description = «The task to schedule.» }
]
Template = «» «Пользователь хочет запланировать задачу: ‘{task_description}’. Предложите хорошее время для сегодняшнего дня и позвоните в инструмент` gade_event`, чтобы добавить его в календарь.

[[tool]]name = «gyrade_event» description = «Запланирует событие в вашем календаре.» input_parameters = [  { name = «task_description», type = «string», description = «The task or event to be scheduled.» },  { name = «time», type = «string», description = «The time when the event should be scheduled (e.g., ‘2pm today’).» }] [[prompt]]name = «gyrade_todo_task» description = «Запланирует задачу из списка Todo в свой календарь.» input_parameters = [  { name = «task_description», type = «string», description = «The task to schedule.» }]Template = «» «Пользователь хочет запланировать задачу: ‘{task_description}’. Предложите хорошее время для сегодняшнего дня и позвоните в инструмент` warded_event`, чтобы добавить его в календарь. «» «» »

Итак, теперь представьте, что у вас есть чат -бот с доступом к контексту, предоставленному этими серверами MCP. Когда пользователь обеспечивает цель высокого уровня, такую ​​как: «Я хочу сосредоточиться на глубокой работе сегодня», клиент MCP координирует модульный многозерверный рабочий процесс для выполнения запроса. Он упаковывает пользовательское сообщение вместе с метаданными инструментами и инструкциями по приглашению от всех подключенных серверов MCP и отправляет его в LLM. LLM сначала выбирает высокоуровневый инструмент планирования plan_daily_tasks с сервера TODO, который возвращает подсказку, направляющую LLM, чтобы разбить цель на действенные задачи, используя add_task.

По мере того, как задачи создаются и LLM уведомляется, LLM еще больше и решает запланировать задачи, вызывая chade_todo_task, запуская сервер календаря. Этот сервер отвечает новым оперативным руководством по использованию gade_event, после чего LLM завершает план дня с конкретным временем.

Каждое взаимодействие инструмента маршрутизируется и опосредовано клиентом MCP, который управляет циклом рассуждений, координирует выполнение инструмента и отслеживает состояние взаимодействия по всему сеансу. Это формирует полностью агент рабочий процесс: пользователь устанавливает цельLLM причины и решаютсерверы MCP разоблачить инструменты и динамические подсказки и клиент MCP организует процессобеспечивает интеллектуальную, композиционную автоматизацию между доменами.

Из очень простой и высокого уровня у вас теперь есть агент, который сам по себе принимает несколько решений, чтобы достичь конечной цели. Конечно, в создании этих задач мало ценностей, не зная больше о том, на чем пользователь хочет сосредоточить свою глубокую работу, но улучшение этого просто требует изменения сервера MCP, чтобы иметь более полную и хорошо продуманную подсказку.

MCP гнездование

Все становится действительно интересным, когда вы начинаете смотреть за пределы одного уровня клиентов MCP и серверов. Серверы MCP также могут быть клиентами других серверов MCP. Это гнездование позволяет модульности, композиции и агентскому делегированию, где один сервер может «делегировать» часть своих рассуждений или функциональности другому.

Это как микросервисы для агентов. Подобно тому, как мы перешли от монолитов к микросервисам для бэкэнд -приложений, мы теперь разъединяем логику инструмента из среды выполнения агента с использованием серверов MCP. Основываясь на быстрое добавление новых серверов MCP, легко представить себе обширную и высококомпонируемую систему инструментов, которую можно использовать, например, кирпичи Lego для создания комплексных рабочих процессов.

Например, у вас может быть сервер Dev Scaffolding MCP, который выступает в качестве оркестратора высокого уровня, который фокусируется на том, чтобы помочь разработчикам переходить от идей к рабочему коду, координируя несколько специализированных серверов MCP вверх по течению. Когда пользователь запрашивает новую функцию приложения (например, «Добавить функцию входа»), сервер оркестратора использует вверх по течению серверов-Spec-Writer для генерации спецификации API, кода для кода каркаса из этой спецификации и тестовой записи для создания соответствующих тестовых случаев.

Эти коллективные серверы MCP также могут быть использованы для функциональности, специфичной для окружающей среды. Другими словами, они выставляют один и тот же интерфейс (например, Query_database), но настроены для разных сред. Это позволило бы вам иметь Dev-App-сервер, который включает в себя вверх по течению серверы MCP, такие как Dev-DB-сервер, используя базу данных SQLite, сервер DeV-Auth, который возвращает высмеиваемые ответы авторов и Dev-Deploy-сервер, который завершает локальный инструмент интерфейса командной строки (CLI). Тогда SD-APP-сервер будет указывать на коррелированные серверы вверх по течению, привязанные к облачным развертываниям.

Платформы, такие как MCP.Run, уже сильно использовали эту композицию. MCP.RUN позволяет вам установить расширяемый, динамически обновляемый сервер, который использует реестр серверов MCP вверх по течению. Он вызывает сервлеты. Эти сервлеты не нужно устанавливать локально, но могут работать удаленно на инфраструктуре MCP.RUN.

Это довольно мощно по ряду причин, но для целей этой статьи подчеркивает важный сдвиг, который происходит в экосистеме MCP: удаленные серверы MCP. Это тема моей третьей и последней статьи в этой серии.

Хотите узнать больше? Посмотрите, как Kong решает реальные проблемы MCP Server сегодня.

Kong Inc. является ведущим разработчиком Cloud API Technologies и выполняет миссию, позволяющая компаниям по всему миру стать «Pi-Pirst». Конг помогает организациям во всем мире — от стартапов до предприятий из списка Fortune 500 — выпустить производительность разработчиков, надежно строить и ускорить время на рынке. Узнайте больше новейших из Cong Trending Stories youtube.com/thenewstack Tech Moving быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Майкл Филд служит менеджером по маркетингу технического продукта в Kong Inc., подпитываемой любопытством и любовью к решению сложных задач, он управлял карьерой, охватывающей машиностроение в транспортном секторе, физически соединяя людей, к работе с API … Подробнее от Michael Field

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *