Google запускает управляемые удаленные серверы MCP для своих облачных сервисов

Протокол контекста модели (MCP) стал де-факто стандартом для больших языковых моделей (LLM) для взаимодействия со сторонними сервисами, и чтобы обеспечить это, эти сторонние сервисы должны предлагать сервер MCP, к которому может подключаться LLM. На данный момент, хотя MCP едва исполнился год, практически каждый онлайн-сервис имеет сервер MCP. Сегодня Google расширяет поддержку MCP, предлагая полностью управляемые серверы MCP для многих своих сервисов Google и Google Cloud, а в будущем их станет еще больше.

До сих пор разработчикам приходилось использовать локальные серверы Google, созданные сообществом, или развертывать решения с открытым исходным кодом, которые, как отмечает Google, часто было сложно устанавливать и управлять. Предлагая эти новые управляемые серверы MCP, Google устраняет всю эту дополнительную работу, значительно упрощая для разработчика создание агента, который поддерживается, например, новой моделью Google Gemini 3 и который подключается как к службе данных BigQuery, так и к Картам Google, чтобы обогатить эти данные геопространственной информацией.

«Благодаря этим новым и расширенным возможностям MCP мы гарантируем, что разработчики и агенты смогут легко взаимодействовать с данными и предпринимать действия. Google стремится возглавить революцию в области искусственного интеллекта не только путем создания лучших моделей, но и путем создания лучшей экосистемы для процветания этих моделей и агентов», — пишут в сегодняшнем объявлении Майкл Бахман, вице-президент Google и генеральный директор Google Cloud, и Анна Беренберг, научный сотрудник Google Cloud.

BigQuery и Maps являются одними из первых сервисов, которые получат новые управляемые серверы MCP вместе с Google Compute Engine (GCE), который позволит агентам управлять рабочими процессами инфраструктуры, а также выделять и изменять размеры экземпляров, а также Google Kubernetes Engine (GKE), который предложит сервер, который позволит агентам работать с Kubernetes и API-интерфейсами GKE.

Вот другие сервисы, которые также получат поддержку MCP в ближайшие месяцы:

  • Проекты, вычисления и хранение: Cloud Run, облачное хранилище, менеджер облачных ресурсов
  • Базы данных и аналитика: AlloyDB, Cloud SQL, Spanner, Looker, Pub/Sub, Универсальный каталог Dataplex
  • Безопасность: Служба безопасности Google (SecOps)
  • Облачные операции: Облачная регистрация, облачный мониторинг
  • Сервисы Google: API знаний разработчика, API управления Android

Для обнаружения, управления, использования и мониторинга этих сервисов Google использует реестр Cloud API, который все еще находится в предварительной версии. Реестр предоставит всю информацию о том, какие API и инструменты доступны агентам для использования (и к каким функциям этих API они могут получить доступ).

Сегодняшнее объявление было сделано на следующий день после того, как Anthropic передала спецификации протокола MCP Linux Foundation в рамках нового независимого от поставщиков Agentic AI Foundation (AAIF).

«Поддержка Google MCP в таком разнообразном спектре продуктов в сочетании с их тесным сотрудничеством в разработке спецификации поможет большему количеству разработчиков создавать агентные приложения искусственного интеллекта», — сказал Дэвид Сориа Парра, соавтор MCP и член технического персонала Anthropic. «Поскольку распространение среди ведущих платформ растет, это приближает нас к агентному ИИ, который без проблем работает с инструментами и сервисами, которые люди уже используют».

Служба управления API Apigee от Google также получает расширенную поддержку MCP, позволяя предприятиям управлять своими пользовательскими серверами MCP и доступом к ним агентов с помощью того же инструмента, который они уже используют для управления своими API.

ТЕНДЕНЦИОННЫЕ ИСТОРИИ YOUTUBE.COM/THENEWSTACK Технологии развиваются быстро, не пропустите ни одной серии. Подпишитесь на наш канал YouTube, чтобы смотреть все наши подкасты, интервью, демонстрации и многое другое. ПОДПИСАТЬСЯ Группа, созданная в Sketch. Прежде чем присоединиться к The New Stack в качестве старшего редактора по искусственному интеллекту, Фредерик был корпоративным редактором в TechCrunch, где освещал все, от появления облака и первых дней Kubernetes до появления квантовых вычислений…. Подробнее от Фредерика Лардинуа

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *