Confluent спонсировал этот пост.
Несмотря на то, что предприятия перенесли все свои важные приложения в общественные облака, по оценкам, 40% рабочих нагрузок по-прежнему работают в локальных центрах обработки данных. Облако необходимо для быстрого добавления емкости и получения доступа к определенным передовым инструментам и платформам, но это также может привести к высоким затратам, особенно в эпоху ИИ.
Вот почему необходимо достижение «гибридное равновесие»-состояние, где локальные инфраструктуры и облачные услуги сбалансированы для обеспечения оптимального сочетания затрат, производительности и возможностей для рабочих нагрузок, которые необходимо для бизнеса.
Достижение этого баланса жизненно важно, учитывая, что многие крупные предприятия выделяют девятизначные бюджеты поставщикам облачных услуг. Даже скромное сокращение этих расходов на 1% приводит к минимуму 1 млн. Долл. сша, что бизнес может реинвестировать в программное обеспечение или другие стратегические инициативы.
Гибридное равновесие не является фиксированным состоянием и будет колебаться по мере развития бизнеса. Это означает, что предприятиям нужен способ получить доступ к их наиболее важному активу — их данные — где бы они ни были. Они могут достичь этого с помощью синхронизации данных, которая обеспечивает максимальную гибкость, гарантируя, что данные остаются согласованными во всех местах.
Синхронизация данных: ключ к гибридному равновесию
Синхронизация данных является краеугольным камнем гибридного равновесия. Он действует как основной мост, обеспечивая беспрепятственное движение данных между локальными и облачными средами. При синхронизации данных предприятия могут легко перемещать рабочие нагрузки туда -сюда между облаком и их собственными центрами обработки данных, как это требует потребностей.
Синхронизированные данные имеют решающее значение по нескольким причинам. Например, это значительно повышает точность разработки приложений ИИ, позволяя создавать и протестировать приложения с реальными операционными данными. Приложения часто терпят неудачу или дают ошибочные результаты, когда разработчики создают их, используя подмножество архивных данных, а затем внедряют их в производство.
Синхронизированные данные также позволяют проводить эксперименты и выпечки между различными моделями искусственного интеллекта, такими как OpenAI и DeepSeek, а также инструменты, такие как базы данных Langchain и Vector, в локальных и облачных средах. Учитывая различные характеристики производительности различных моделей, синхронизированные данные позволяют предприятиям тестировать различные конфигурации в облаке и в помещениях, чтобы определить наилучшую комбинацию затрат, производительности и точности.
В качестве дополнительного бонуса, синхронизация данных между системами на предпринимательских системах и облаком эффективно создает резервную копию для аварийного восстановления. Если центр обработки данных страдает от катастрофического сбоя, или если экземпляр облака остается в автономном режиме в течение длительного времени, всегда существует зеркало данных, чтобы упасть.
Короче говоря, без надежной синхронизации потенциальные преимущества гибридной стратегии — гибкая распределение рабочей нагрузки и оптимизация затрат — не могут быть полностью реализованы.
Оптимизация стоимости и инноваций
Достижение выгод затрат гибридного равновесия требует, чтобы предприятия знали их затраты на транзакцию как в локальных, так и в облачных средах. Чтобы оптимизировать затраты, это, как правило, предполагает максимально использовать локальные ресурсы, чтобы использовать преимущества хранения и вычислять ресурсы, в которые компания уже инвестировала. Но также требуется гибкость для перемещения рабочих нагрузок и данных в облако, либо во время пикового спроса, либо для использования технологий, которые нелегко воспроизвести внутри.
Несмотря на то, что облако обеспечивает масштабируемость и гибкость, оно может быть значительно дороже для конкретных рабочих нагрузок, особенно тех, которые включают в себя высокий сетевой трафик или развертывание зоны прохождения. Оптимальная гибридная стратегия включает в себя выполнение основных рабочих нагрузок на помещениях, где затраты обычно ниже, и использует облако для масштабирования в периоды пикового спроса.
Однако стоимость — это только одно соображение. Облако также предоставляет доступ к передовым инструментам и услугам, таким как BigQuery и Presto, которые нелегко воспроизвести внутри. Эти услуги часто важны для создания сложных приложений, которые используют ИИ и расширенную аналитику данных и доступны только в облаке.
Решение проблем реализации
Синхронизация данных становится возможной с использованием Apache Kafka (с репликатором слияния или зертирной 2) для обеспечения репликации данных в реальном времени. Слои абстракции, такие как VMware и Kubernetes, позволяют инженерам упростить миграцию рабочей нагрузки между локальной и облачной инфраструктурой. Контейнерная оркестровая с Kubernetes позволяет гибко двигаться.
Основная проблема в достижении синхронизации данных заключается в опыте, необходимой для настройки и управления синхронизированными средами. Я рекомендую создать межфункциональную «Tiger Team», которая включает инженеров с опытом как в облачной, так и в локальной среде, которые будут работать вместе. Конфигурация сети является особенно важным аспектом, который не следует недооценивать. Создание многочисленных соединений между локальными центрами обработки обработки данных и облачными поставщиками требует тщательного планирования и выполнения.
Помимо конфигурации сети, управление данными и безопасность представляют значительные препятствия. Поддержание последовательной политики безопасности и обеспечение соответствия правилам как в локальной, так и в облачной среде требует тщательного планирования и выполнения. Реализация надежных элементов управления доступа, шифрования и методов маскировки данных имеет важное значение для защиты конфиденциальной информации во время синхронизации и на протяжении всего его жизненного цикла.
Последняя задача — масштаб. Архитектура должна иметь возможность не только обрабатывать токологические объемы данных и скорости передачи, но также иметь возможность сгибаться, чтобы приспособиться к будущему росту в получении потребностей в обработке данных и обработке. Это включает в себя эффективное управление увеличением числа источников данных и целевых направлений без ущерба для производительности или надежности.
И наоборот, архитектура также должна быть в состоянии сокращаться в течение периодов более низкой активности, оптимизировать использование ресурсов и минимизировать затраты. Эта способность динамически масштабировать инфраструктуру может оставаться выровненной с развивающимися потребностями бизнеса и бюджетными ограничениями.
Стратегическое преимущество гибридного равновесия
Синхронизация данных позволяет предприятиям ориентироваться в сложности гибридной среды, превращая потенциальные бремени затрат в стратегические преимущества. Принимайте эту возможность оптимизировать вашу инфраструктуру, топливные инновации и уверенно вступить в следующую эру роста, управляемого данными.
Confluent, основанная оригинальными создателями Apache Kafka, впервые провели полную платформу потоковой передачи данных, которая транслирует, соединяет, обрабатывает и управляет данными, когда она течет по всему бизнесу. С Confluent любая организация может модернизировать свой бизнес и управлять им в режиме реального времени. Узнайте больше последних из Comfluent Trending Stories YouTube.com/ThenewStack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Джозеф Мораис служит техническим чемпионом и евангелистом, потокомившись с данными в Confluent. Прежде чем присоединиться к Confluent, Джозеф был старшим менеджером по техническим счетам в AWS, помогая корпоративным клиентам масштабироваться в их облачном путешествии. Джозеф также работал на аминопленные платежи, … Подробнее от Джозефа Мораиса