Прошли те времена работника Edge/время выполнения для поставщика облачного хостинга frontend Vercel, генеральный директор Гильермо Раух вчера написал в Твиттере.
«На самом деле, на прошлой неделе все промежуточное программное обеспечение Edge работает на жидкости в облаке Vercel», — добавил он.
Edge Network — это предложение Vercel, которое является и сетью доставки контента (CDN) и глобально распределенной платформой для запуска вычислительных вычислений в регионах по всему миру.
Fluid — это новая модель инфраструктуры веб -приложений, которая подразумевает сочетание лучших серверов и без серверов, предлагая эффективное использование ресурсов и что, что более важно для клиентов Vercel, — снижают затраты.
Жидкость является мультирегионом, но это не означает «десятки или сотни краев CDN», написал Раух.
‘Edge не для приложений, API, базы данных’
Редкие вычисления лучше всего подходят для маршрутизации, статических активов и предварительных ресурсов, но это не для приложений, API и баз данных, заявил Раух в своем твиттере и повторился в веб-трансляции в тот же день с CTO Malte UBL.
«Большое понимание в том, что ваше приложение, [the] Настоящая логика должна работать рядом с данными, потому что вы путешествуете в качестве водопадов данных; Это будет медленно », — сказал UBL. «Мечта о Edge Compute, что вы внезапно получили свои данные во всех этих 200 местах, эта мечта просто не реальность».
Кроме того, подавляющее большинство клиентов Vercel размещают свои данные в одном месте, добавил он.
«Пример, который я люблю привести, заключается в том, что у Google есть восемь центров обработки данных для поиска Google», — добавил Раух. «Google преуспел с восемью центрами обработки данных. Вы не собираетесь копировать петабайты данных в 200 местах ».
С помощью жидкости вычислители проходят ближе к тому, где ваши данные уже живут, вместо «попытки нереалистичной репликации во всех местах края», — написал Мариан Кокарио, менеджер продуктов для CI/CD и вычислительный вычисление, в пост -внедрении жидкости.
«Мечта о Edge Compute, что вы внезапно получили свои данные во всех этих 200 местах, эта мечта просто не реальность».
— Wercel Malte UBL
«Вместо того, чтобы заставлять широко распространенное распределение данных, этот подход гарантирует, что ваш вычислитель помещается в регионы, которые соответствуют вашим данным, оптимизируя как для производительности, так и для согласованности», — сказал он. «Динамические запросы направляются в ближайшую здоровую область вычислительных вычислений — среди назначенных мест — обеспечивая эффективное и надежное выполнение».
Для корпоративных клиентов, многорегионный отказоустойчивость-это дефолт при активации жидкости, добавил он.
Жидкость уменьшает холодные запуска
Без серверные вычисления могут страдать от холода, которые представляют собой задержки, которые возникают, когда функция вызывается впервые или после неактивности.
Функции без серверов работают в контейнерах. Когда функция развернута, облачные провайдеры пакутся с кодом и зависимостями в контейнер. Контейнеры нуждаются в инициализации при использовании функции, процесс, который требует времени, когда контейнер выделяется, инициализируется и загружается код. Кроме того, контейнеры закрываются из -за бездействия для экономии ресурсов.
Покупатели платят за холодные старты, хотя.
CTO CTO MALTE UBL объясняет преимущества жидкости.
«Если я включу жидкость, что я только что сделал, я собираюсь отправить еще четыре запроса, 1-2-3-4, все они поражают один и тот же экземпляр»,-сказал UBL. «То, что вы можете увидеть в демонстрации, так это то, что он считается общей продолжительностью времени, когда функция была жива, в данном случае 3,4 секунды. Так что это все, за что мне выставлены счет. Да, так что вы построены в течение 3,5 секунд вместо 12 секунд […] Вот что такое жидкость ».
Жидкость уменьшает частоту холода начинается с поддержания «теплого экземпляра». Cocirio заявила, что он торгует функциями одноиндеров для высокопроизводительных мини-серверов.
«Когда начнется холодные запуска, время выполнения на основе ржавчины с полным узлом. «Кэширование байт-кодов еще больше ускоряет вызов, предварительно компилируя код функции, уменьшая запуск накладных расходов».
В результате модель максимизирует эффективность ресурсов и, в ранних пользователях, снизила затраты до 85%, добавил он.
Он подчеркнул, что плавные счета за фактическое использование вычислительных вычислений, минимизация отходов. Он также расставляет приоритеты в использовании существующих ресурсов перед созданием новых экземпляров, «устранение пределов жесткого масштабирования и использование теплого вычисления для более быстрого, более эффективного масштабирования», сказал Кокиро. «С масштабированием функций до экземпляров жидкость смещается до модели для многих к одному, которая может обрабатывать десятки тысяч параллельных призывов».
Другие функции жидкости
Жидкость также смягчает риск неконтролируемого исполнения, что может повысить затраты, пояснил Цицирио. Функции, которые ждут ответов на бэкэнд, могут обрабатывать другие запросы вместо того, чтобы тратить вычисление.
Fluid также поддерживает передовые задачи, такие как потоковая передача и обработка после ответа. Он полностью управляется, что сохраняет один из привлекательных аспектов модели без серверов.
Несмотря на это, Vercel не автоматически переключает клиентов на Fluid — он требует от клиентов переключать один переключатель на вкладке «Функции» в настройках проекта, чтобы включить его. Раух объяснил, что Vercel решил не включать его для всех, потому что модель выполнения слегка изменяется.
«Это не требует изменений кода. У нас встроенные смягчения. Он оснащен узлом и питоном и более открытым временем забега, и вы готовы включить его сегодня », — сказал Раух.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Loraine Lawson — ветеран -репортер, который в течение 25 лет освещал технологические проблемы от интеграции данных до безопасности. Прежде чем присоединиться к новому стеку, она работала редактором Banking Technology Site Bank Automation News. Она … читайте больше от Лорейн Лоусон