2026 год станет годом агентных рабочих нагрузок в производстве на Amazon EKS

AWS спонсировала этот пост.

Когда AWS запустила Elastic Kubernetes Service в 2018 году, целевой аудиторией были ранние пользователи, которым нужна была управляемая плоскость управления и которые могли бы справиться со всем остальным самостоятельно. За последние восемь лет ситуация сильно изменилась.

«Мы начинаем больше охватывать позднее большинство, даже отстающих», — сказал Майк Стефаниак, старший менеджер по управлению продуктами EKS и ECR в AWS. «Люди приходят в Kubernetes. У них нет огромных платформенных команд. Они не хотят управлять всем самостоятельно».

В этом выпуске The New Stack Makers я поговорил со Стефаниаком, чтобы обсудить, как рабочие нагрузки ИИ меняют Kubernetes, почему AWS открыла исходный код сервера Model Context Protocol (MCP) для EKS и что на самом деле происходит с агентным ИИ в производственных средах.

Названия инструментов имеют значение

Ранее в этом году AWS Labs выпустила сервер MCP для EKS в качестве проекта Labs.

«Некоторые из ранних отзывов, которые мне показались интересными, заключаются в том, что фактические имена инструментов, которые вы помещаете на свой сервер MCP, имеют большое значение, поскольку вы не обязательно хотите копировать каждый вызов API, который имеет EKS, потому что LLM [large language model] может разобраться сам», — объяснил Стефаниак, — «Устранение неполадок, runbook, развертывание стеков CloudFormation для фактического запуска полноценного приложения — это гораздо интереснее, что мы помещаем в наш MCP-сервер, чем просто создание кластера и развертывание модуля. Мы значительно изменили названия инструментов, которые мы запустили, и теперь работаем над управлением ими, чтобы сделать их более готовыми к использованию на предприятиях».

Команда также запустила размещенную базу знаний, содержащую многолетние обращения в службу поддержки и внутренние журналы, которые теперь можно передать агенту, который, возможно, пытается решить аналогичную проблему. «Мы видели все возможные варианты отказа узла или кластера. Если мы сможем объединить все это в агенте и нашем сервере MCP, клиенты смогут решать проблемы без необходимости обращаться в службу поддержки», — сказал Стефаниак.

Все еще экспериментально, но становится реальностью

Хотя «агентный ИИ» продолжает доминировать во многих конференциях, особенно в основных дискуссиях, Стефаниак утверждает, что, по крайней мере, для его клиентов, он все еще находится на очень ранней стадии этой игры. Эти клиенты по-прежнему уделяют большое внимание регулярному формированию выводов LLM по EKS.

«Я бы сказал, что агентный ИИ — это скорее передовой рубеж», — отметил он. «Большинство пользователей сегодня по-прежнему контролируют человека. Например, при устранении неполадок — позвольте агенту разобраться, внести предложение. Если вы зайдете так далеко, что просто позволите агенту попытаться исправить это самостоятельно, это дальше, чем большинство людей».

«Это особенно актуально для приложений, ориентированных на клиентов», — сказал он. «Внутренние платформы более склонны к использованию новейших технологий, потому что они внутренние. Что касается приложений, ориентированных на клиента, здесь гораздо больше осторожности».

Что дальше?

Но Стефаниак верит, что это скоро изменится. «2026 год станет годом производственного развертывания агентных рабочих нагрузок, тогда как 2025 год был более традиционным для LLM исследований и экспериментов с агентными рабочими нагрузками», — сказал он.

Командам, которые хотят поэкспериментировать с агентскими рабочими нагрузками, он рекомендует использовать Strands SDK с открытым исходным кодом AWS для написания агентов на Python, начиная с конечной точки внешней модели.

Его любимое упражнение «Привет, мир» для начала работы с агентами? Создание агента устранения неполадок Kubernetes, а затем сбой модуля, чтобы увидеть, как агент диагностирует проблему.

«Это довольно весело, когда эта штука просто смотрит на логи и метрики и говорит: «Похоже, этого изображения не существует. Это опечатка. Иди, исправь это».

Что касается его собственного использования ИИ, Стефаниак также все чаще использует эти агентные инструменты, сказал он.

«Если бы вы спросили меня шесть месяцев назад, я бы сказал немного», — объяснил он. «За последние шесть месяцев я, честно говоря, чувствую, что работаю более эффективно с некоторыми из этих инструментов. Некоторые из действительно полезных вариантов использования, которые я использовал внутри компании: BI. Раньше мне приходилось разбираться с таблицами SQL и запросами SQL, чтобы выяснить, что происходит с нашими клиентами, и понять, как они используют наш сервис для принятия решений. У нас есть агент BI, который теперь может понимать наши таблицы, и я могу задавать ему вопросы, на которые я искал ответы годами, честно говоря, и это просто цифры. это для меня на основе уже имеющихся данных. Это был реальный, конкретный вариант использования, который, как я видел, ускорил для нас процесс разработки продукта».

С момента своего создания Amazon Web Services (AWS) была для клиентов лучшим местом для создания и запуска программного обеспечения с открытым исходным кодом в облаке. AWS гордится тем, что поддерживает проекты с открытым исходным кодом, фонды и партнеров. Узнайте больше Последние новости AWS TRENDING STORIES YOUTUBE.COM/THENEWSTACK Технологии развиваются быстро, не пропустите ни одного эпизода. Подпишитесь на наш канал YouTube, чтобы смотреть все наши подкасты, интервью, демонстрации и многое другое. ПОДПИСАТЬСЯ Группа, созданная в Sketch. Прежде чем присоединиться к The New Stack в качестве старшего редактора по искусственному интеллекту, Фредерик был корпоративным редактором в TechCrunch, где освещал все, от появления облака и первых дней Kubernetes до появления квантовых вычислений…. Подробнее от Фредерика Лардинуа

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *