Помощники ИИ становятся все более важными в опыте продукта, и появился новый стандарт, чтобы помочь их построить: протокол контекста модели (MCP). С принятием из крупных поставщиков модели крупной языковой модели (LLM), таких как Antropic, Openai и Gemini, протокол быстро набрал тягу среди более широкой экосистемы программного обеспечения, а компании слева и правые создают свои собственные серверы MCP.
Как кто -то, кто участвовал в создании как серверов MCP, так и интеграций API, я видел, как это быстрое усыновление привело к путанице. Некоторые разработчики и менеджеры по продуктам рассматривают MCP как замену API, в то время как другие считают MCP хуже API.
Реальность более нюансирована: MCP и API дополняют. Многим хорошо разработанным системам ИИ понадобится и то, и другое, и некоторым инженерам ИИ не могут построить систему с достаточной сложностью, чтобы гарантировать, что MCP.
Чтобы помочь вам понять, какое решение подходит для вашего конкретного сценария, я объясню, как каждый из них работает, его ограничения и как они работают вместе.
Как MCP и API сочетаются друг с другом
По своей сути MCP предоставляет стандартный способ для крупных языковых моделей взаимодействовать с внешними источниками данных, но эти взаимодействия обычно происходят через существующие API. Когда LLM вызывает инструмент с MCP -сервера, например, создать билет в JIRA, вызов API все еще сделан в соответствующую конечную точку JIRA.
Значение MCP происходит от управления контекстом между LLMS и источниками данных. Он обеспечивает стандартизированную структуру для:
Между тем, API по -прежнему обрабатывают основную передачу данных, потоки аутентификации и подключения к различным приложениям.
Проблемы безопасности MCP требуют решений AP-LEVEL
Гибкая и открытая архитектура MCP представляет уникальные проблемы безопасности. Разработчики хотят использовать как можно больше инструментов (конечные точки API). Это приводит к ключам, которые часто имеют общий доступ к конфиденциальным услугам, таким как электронная почта, инструменты конфиденциального планирования и данные о продажах. В качестве другого примера, LLM может ошибаться на полевых метках (сбивая с толку «SN» для числа социального страхования, а не фамилию) и непреднамеренно подвергать конфиденциальные данные.
Чтобы предотвратить подобные ситуации, инженеры должны интегрировать уровни контроля доступа, соблюдение схемы и профилактику потерь данных. Наиболее эффективный подход к этому включает в себя объединение возможностей управления контекстом MCP с надежной инфраструктурой API.
Например, метод аутентификации поставщика API (например, OAuth 2.0) позволяет LLM подтвердить, есть ли пользователь необходимые разрешения для доступа к базовой конечной точке API. И коды ответов поставщика API могут помочь вашему LLM диагностировать и решать проблемы (например, предупреждение пользователя, когда запрос не удается и предлагает решение для его решения).
Большинство вариантов использования ИИ требуют только API
Я вижу, как команды искусственного интеллекта принимают MCPS для бумаги по более глубоким вопросам, таким как неорганизованные системы поиска, выездные из контрольных цепочек и отсутствие четких соглашений в разных командах. Вместо того, чтобы исправить архитектуру, они добавляют еще один слой, что приводит к большей абстракции и меньшей ясности.
Этим командам искусственного интеллекта еще не нужен MCP; Им просто нужно очистить свои подсказки и трубопроводы данных (создавая надежные интеграции API). Если команда просто использует MCP для организации уровня инфраструктуры, это, вероятно, преждевременное.
MCP является мощным, когда вы заработали сложность: жонглирование несколькими моделями, источниками и потребителями нижестоящего по течению и нуждаетесь в структурированных контрактах. Но сначала рассмотрите возможность построения согласованности по всей вашей инфраструктуре, а затем внедряют автоматические политики для архивирования, дедупликации и управления разрешениями, чтобы уменьшить ручные накладные расходы и поддерживать порядок.
Понимание того, когда и как использовать каждое из них, даст вам конкурентное преимущество
Поскольку мы строим все более сложные помощники ИИ, очень важно понимать, что MCP и API являются дополнительными уровнями в экосистеме интеграции. MCP предоставляет уровень управления контекстом, который помогает LLMS более эффективно взаимодействовать с внешними системами, в то время как API предлагают безопасные, надежные подключения к этим системам.
Компании, которые успешно строят по -настоящему полезные помощники искусственного интеллекта, признают эти отношения и инвестируют в надежную инфраструктуру API, организованные системы поиска и стандартизированные конвенции, прежде чем они смогут создать эффективные реализации MCP — если это даже необходимо.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Гил является соучредителем и техническим директором Merge, ведущей унифицированной платформой API. Ранее Гил был руководителем инженеров в Untave Ipply и работал инженером -программистом в Wealthfront и LinkedIn. Выпускник Колумбийского университета, он живет и … Подробнее от Джила Фейга