Почему API важны, а MCP не является обязательным (пока)

Помощники ИИ становятся все более важными в опыте продукта, и появился новый стандарт, чтобы помочь их построить: протокол контекста модели (MCP). С принятием из крупных поставщиков модели крупной языковой модели (LLM), таких как Antropic, Openai и Gemini, протокол быстро набрал тягу среди более широкой экосистемы программного обеспечения, а компании слева и правые создают свои собственные серверы MCP.

Как кто -то, кто участвовал в создании как серверов MCP, так и интеграций API, я видел, как это быстрое усыновление привело к путанице. Некоторые разработчики и менеджеры по продуктам рассматривают MCP как замену API, в то время как другие считают MCP хуже API.

Реальность более нюансирована: MCP и API дополняют. Многим хорошо разработанным системам ИИ понадобится и то, и другое, и некоторым инженерам ИИ не могут построить систему с достаточной сложностью, чтобы гарантировать, что MCP.

Чтобы помочь вам понять, какое решение подходит для вашего конкретного сценария, я объясню, как каждый из них работает, его ограничения и как они работают вместе.

Как MCP и API сочетаются друг с другом

По своей сути MCP предоставляет стандартный способ для крупных языковых моделей взаимодействовать с внешними источниками данных, но эти взаимодействия обычно происходят через существующие API. Когда LLM вызывает инструмент с MCP -сервера, например, создать билет в JIRA, вызов API все еще сделан в соответствующую конечную точку JIRA.

Значение MCP происходит от управления контекстом между LLMS и источниками данных. Он обеспечивает стандартизированную структуру для:

  • Выбор и вызов инструмента: MCP позволяет LLMS динамически выбирать, какие инструменты использовать на основе подсказок пользователей, а не требуют жестких вызовов API.
  • Удержание контекста: Протокол помогает LLMS сохранить, обновлять и получить контекст, что имеет решающее значение для управления многоэтапными рабочими процессами.
  • Упрощенное взаимодействие: MCP облегчает интеграцию LLMS и приложений, предоставляя стандартный протокол.
  • Между тем, API по -прежнему обрабатывают основную передачу данных, потоки аутентификации и подключения к различным приложениям.

    Проблемы безопасности MCP требуют решений AP-LEVEL

    Гибкая и открытая архитектура MCP представляет уникальные проблемы безопасности. Разработчики хотят использовать как можно больше инструментов (конечные точки API). Это приводит к ключам, которые часто имеют общий доступ к конфиденциальным услугам, таким как электронная почта, инструменты конфиденциального планирования и данные о продажах. В качестве другого примера, LLM может ошибаться на полевых метках (сбивая с толку «SN» для числа социального страхования, а не фамилию) и непреднамеренно подвергать конфиденциальные данные.

    Чтобы предотвратить подобные ситуации, инженеры должны интегрировать уровни контроля доступа, соблюдение схемы и профилактику потерь данных. Наиболее эффективный подход к этому включает в себя объединение возможностей управления контекстом MCP с надежной инфраструктурой API.

    Например, метод аутентификации поставщика API (например, OAuth 2.0) позволяет LLM подтвердить, есть ли пользователь необходимые разрешения для доступа к базовой конечной точке API. И коды ответов поставщика API могут помочь вашему LLM диагностировать и решать проблемы (например, предупреждение пользователя, когда запрос не удается и предлагает решение для его решения).

    Большинство вариантов использования ИИ требуют только API

    Я вижу, как команды искусственного интеллекта принимают MCPS для бумаги по более глубоким вопросам, таким как неорганизованные системы поиска, выездные из контрольных цепочек и отсутствие четких соглашений в разных командах. Вместо того, чтобы исправить архитектуру, они добавляют еще один слой, что приводит к большей абстракции и меньшей ясности.

    Этим командам искусственного интеллекта еще не нужен MCP; Им просто нужно очистить свои подсказки и трубопроводы данных (создавая надежные интеграции API). Если команда просто использует MCP для организации уровня инфраструктуры, это, вероятно, преждевременное.

    MCP является мощным, когда вы заработали сложность: жонглирование несколькими моделями, источниками и потребителями нижестоящего по течению и нуждаетесь в структурированных контрактах. Но сначала рассмотрите возможность построения согласованности по всей вашей инфраструктуре, а затем внедряют автоматические политики для архивирования, дедупликации и управления разрешениями, чтобы уменьшить ручные накладные расходы и поддерживать порядок.

    Понимание того, когда и как использовать каждое из них, даст вам конкурентное преимущество

    Поскольку мы строим все более сложные помощники ИИ, очень важно понимать, что MCP и API являются дополнительными уровнями в экосистеме интеграции. MCP предоставляет уровень управления контекстом, который помогает LLMS более эффективно взаимодействовать с внешними системами, в то время как API предлагают безопасные, надежные подключения к этим системам.

    Компании, которые успешно строят по -настоящему полезные помощники искусственного интеллекта, признают эти отношения и инвестируют в надежную инфраструктуру API, организованные системы поиска и стандартизированные конвенции, прежде чем они смогут создать эффективные реализации MCP — если это даже необходимо.

    Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Гил является соучредителем и техническим директором Merge, ведущей унифицированной платформой API. Ранее Гил был руководителем инженеров в Untave Ipply и работал инженером -программистом в Wealthfront и LinkedIn. Выпускник Колумбийского университета, он живет и … Подробнее от Джила Фейга

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *