CNCF спонсировал этот пост.
Команды, управляющие приложениями Kubernetes в облаке, часто попадают в ловушку чрезмерного выражения, пытаясь гарантировать высокую производительность и доступность. В результате они генерируют облачные отходы, которые приводят к значимой стоимости для организации.
Недавно Cast AI опубликовал отчет о контроле затрат Kubernetes 2025 года, который показал, что разрыв между предоставленными и запрошенными ресурсами по -прежнему значительным — 40% для процессоров и 57% для памяти. Это указывает на то, что команды развертывают меньше рабочих нагрузок на кластеры, чем их потенциал.
Примечательно, что 99,94% проанализированных кластеров были чрезмерно распространены с помощью ЦП, проблема, согласованная для основных облачных поставщиков (AWS, Google Cloud Platform и Microsoft Azure), без существенных изменений в эффективности ресурсов.
Это неэффективность предполагает, что проблема заключается не в самих облачных платформах, а со сложностями управления кластерами Kubernetes вручную.
Чрезмерное выражение — это всего лишь одна сторона монеты
Средние уровни использования ресурсов Kubernetes показывают, что проблема не связана только с размером или типом выбранных экземпляров. Использование процессора в кластерах Kubernetes в среднем составляло 10%, причем использование памяти — 22%. Это показывает, что команды сталкиваются с еще одной проблемой: установить правильные запросы на рабочие нагрузки Kubernetes без слишком большого количества запасных рулевых.
Несмотря на широкое распространение Kubernetes в облачных нативных средах, управление облачными ресурсами остается ручным и интенсивным усилием. Когда команды тратят время на повторяющиеся задачи и микроуправление в облачной инфраструктуре, они, как правило, переоценивают свои кластеры, не могут эффективно назначать им приложения и генерировать облачные отходы, оставляя большие запас в запросах на рабочую нагрузку.
Данные подчеркивают необходимость лучшего инструмента и автоматизации в средах Kubernetes для снижения чрезмерного выражения, улучшения использования ресурсов и устранить ненужные затраты на облачные.
Шесть способов повышения использования ресурсов и эффективности гибкой вычислительной генерации выбора.
Двигатель автоматизации позволяет командам динамически выбирать из разных поколений вычислительных экземпляров, основанных на тенденциях цен в реальном времени. Это позволит им извлечь выгоду из последнего оборудования для производительности или выбора более старых, экономически эффективных поколений, чтобы сбалансировать свои бюджеты.
Приведенный ниже график иллюстрирует эволюцию цен трех вычислительных экземпляров, представляющих три поколения, показывая, что гибкость в выборе экземпляра может изменить правила игры.
автоматизация выбора архитектуры процессора (x86 против ARM)
Выбор между процессорами X86 и ARM может привести к значительной экономии затрат, поскольку процессоры ARM, как правило, более доступны, чем X86. Экземпляры Arm Spot на таких платформах, как Azure, GCP и AWS, постоянно предлагают лучшие цены, с экономией до 65%. Автоматизируя размещение рабочей нагрузки в архитектурах, команды могут обеспечить наилучшее соотношение производительности к стоимости без ручного вмешательства.
Облачный провайдер
Лазур
GCP
AWS
Ав. x86 спотовая цена за час
$ 0,0254 $ 0,0212 $ 0,0389
Ав. x86 Цена по требованию за процессор в час
$ 0,1354 $ 0,0659 $ 0,0783
Ав. Спотовая цена на руку за процессор в час
$ 0,0079 $ 0,0156 $ 0,0200
Ав. Рука по требованию за процессор в час
0,0474 долл. сша 0,0410 долл. сша 0,0496 пользовательские автомассанки для динамического масштабирования ресурсов
Такие компании, как Akamai, использовали Autoscalers Custom для автоматической корректировки облачных ресурсов на основе спроса в реальном времени. Этот подход гарантирует, что приложения всегда имеют необходимые ресурсы при минимизации отходов в течение периодов низкого уровня. Автоматическое масштабирование оптимизирует как затраты, так и производительность, устраняя необходимость в ручных корректировках.
Рабочие нагрузки с бин-пакетами для максимальной эффективности
Организации могут значительно сократить чрезмерное повышение за счет рабочих нагрузок с бин-пакетами, в частности, для трудоустройства без сохранности рабочие нагрузки. Например, Heureka Group достигла 30% снижения расчетных затрат за счет автоматической оптимизации размещения рабочей нагрузки и удаления неиспользованных узлов. Этот метод уменьшает количество простоя процессоров и повышает общее использование.
Автономный настройка запроса на основе данных в реальном времени
Рабочие нагрузки Stateful напоминают память. Приведенный ниже пример иллюстрирует, что может произойти, если компания использует автомассалирующие решения на уровне рабочей нагрузки и в какой -то момент выключает их.
Результирующий резкий рост запросов памяти заставил систему предоставить больше ресурсов. Это, в свою очередь, вызвало обеспечение процессора из -за корреляции между памятью и процессором, что привело к существенным перерасходу ресурсов.
Безопасно использовать точечные экземпляры
Спотовые экземпляры предлагают существенные скидки, но часто недооценены из -за риска перерывов. автоматизация может помочь контролировать колебания цен и ставки перерыва, что позволяет командам уверенно принять точечные экземпляры для некритических рабочих нагрузок. Автоматизируя этот процесс, компании могут максимизировать сбережения без риска производительности.
Заключение
автоматизация является мощным решением для решения проблемы неэффективности, которые преследуют среды Kubernetes. Организации могут значительно сократить облачные отходы и улучшить использование ресурсов, используя автоматизированные инструменты и лучшие практики, такие как гибкий выбор вычислительного выбора, динамическое автоматическое мастерство и интеллектуальное размещение рабочей нагрузки.
По мере того, как облачные среды станут более сложными, этот подход станет необходимым для обеспечения эффективного использования ресурсов, рабочие нагрузки оптимизированы, и команды продолжают инновации без перерасхода облачной инфраструктуры.
Чтобы узнать больше о Kubernetes и Облачной нативной экосистеме, присоединяйтесь к нам в Kubecon + CloudNativecon Europe в Лондоне 1-4 апреля.
Облачный фонд Cloud Computing Foundation (CNCF) проводит критические компоненты глобальной технологической инфраструктуры, включая Kubernetes, Prometheus и Angoy. CNCF является нейтральным домом для сотрудничества, объединяющий ведущих разработчиков отрасли, конечных пользователей и поставщиков. Узнайте больше последних из CNCF Trending Stories YouTube.com/ThenewStack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Лоран Гил является соучредителем и президентом Cast AI, наблюдая за развитием продукта и бизнеса. Ранее он стал соучредителем Zenedge, где он работал главным сотрудником по продукту и бизнесу до его приобретения Oracle в 2018 году. Он также был генеральным директором и соучредителем … Подробнее от Laurent Gil