OpenSearch 3.2 обеспечивает гибридный поиск, улучшенные инструменты наблюдения

АМСТЕРДАМ — Последний релиз Opensearch 3.2 предлагает не только то, что доступно для ее аналитики и теперь все более заметные возможности, но и то, как проект вырос и расширился после его пожертвования в Linux Foundation.

Постоянные улучшения в Opensearch — гибкий проглатывание данных с открытым исходным кодом и аналитическое тестирование, наблюдаемость и более быстрое и улучшенное обратную связь для участников. Новая версия также продолжает разрабатывать агентскую поддержку ИИ через протокол контекста модели (MCP).

Многие из этих новых функций, благодаря новому ассортименту спонсоров, выходящих за рамки его первоначального создателя, Amazon Web Services, связанные с крупными организациями, такими как Bytedance, IBM DataStax, SAP и Uber. Google Cloud и Microsoft Azure также предлагают управляемые услуги OpenSearch.

Сотни других крупных и сравнительно небольших организаций пользователей находят утилиту в расширении возможностей Opensearch, что делает его одним из быстрорастущих проектов с открытым исходным кодом в рамках Foundation Linux.

Это никоим образом не является одобрением OpenSearch и Elasticsearch и Kibana, из которого был раздвоен OpenSearch. Эти продукты, кажется, несколько раздвоены, после изменений лицензирования Elastic, что привело к вилке OpenSearch.

Что нового в Opensearch 3.2?

Эта бифуркация стала более очевидной, выступая на Summit Europe с открытым исходным кодом с Pallavi Priyadarshini, руководителем инженера Amazon Opensearch Service DataPlane для AWS. Приядаршини сказал, что основные особенности OpenSearch с момента введения версии 3.0, включают в себя:

автоматизация выпуска, который касается большого объема кода и зависимостей от многочисленных участников и репозиториев. Новый AI Chatbot был представлен для автоматизации рабочих процессов выпуска. Кроме того, была введена развязка, чтобы помочь людям с определенными потребностями, как в том, чтобы способствовать реализации новых функций под зонтиком OpenSearch.

«Цель этого бота состоит в том, чтобы демократизировать процесс освобождения, что делает его доступным для любого в сообществе без необходимости команды центрального выпуска или глубоких знаний о командах, поскольку он обусловлен естественным языком», — сказал Приядаршини новому стеку.

«Проект также направлен на отделение кодовых баз, чтобы отдельные компоненты могли быть выпущены независимо, что полезно для небольших функций, которые появляются в качестве плагинов».

Более реактивные петли обратной связи также были реализованы. Если пользователи и участники видят что -то действительно важное, над чем вы работаете, они могут инициировать запрос на притяжение, зная его статус в течение восьми недель, максимум.

«Пользователи с открытым исходным кодом ожидают, что код внес свой вклад в быстрого включения в выпуски без долгого ожидания», — сказал Приядаршини. Это ожидание является ключевой причиной гипер фокусировки со стороны проекта на поддержании восьминедельного цикла выпуска и инвестировании в автоматизацию выпуска.

Необходимость автоматизации была подчеркнута из -за того, как интерес к проекту вызвал резкое увеличение у авторов — и кода. В настоящее время насчитывается около 3300 участников, в соответствии с статистикой OpenSearch, опубликованной на саммите с открытым исходным кодом более 2 миллионов строк кода и более 110 отдельных репозиториев.

Цикл выпуска служит транспортным средством для всего этого, поэтому значительное внимание уделяется автоматизации выпуска. Огромный объем людей, кода, репозитории и зависимости требует инвестиций в автоматизацию.

Возможности поиска для искусственного интеллекта По словам Приядаршини, являются еще одной областью сосредоточения внимания для сопровождающих Opensearch. Это включает в себя серьезный толчок к векторной базе данных для поиска «масштаба триллиона», ускорения графического процессора с помощью NVIDIA и «Агент-поисковой памяти».

По словам Приядаршини, большинству пользователей нужна сочетание поиска вектора и ключевых слов, поэтому OpenSearch инвестировал в «гибридный поиск», чтобы улучшить актуальность результатов.

Поиск актуальности Workbench, Функция, которая входила в общую доступность в версии Opensearch версии 3.2, использует понимание поведения пользователей и телеметрию для постоянного улучшения результатов поиска. Эта система также поддерживает «семантический поисковый опыт», которые учатся у прошлых взаимодействий пользователя. По словам Приядаршини, проект также строит основополагающие блоки для агентского поиска, которые могут быть обусловлены человеком или, в будущем.

Проект извлекает выгоду из того, что Приядаршини назвал «большим толчком к наблюдению», с инвестициями в язык обработки трубопровода (PPL) и объединяя журналы, метрики и следы в единый опыт. По словам Приядаршини, тематическое исследование SAP демонстрирует, как для этого используются OpenSearch и Opentelemetry.

С точки зрения производительности, OpenSearch был оптимизирован для улучшения задержки и потребления ресурсов, несмотря на добавление новых функций. По словам Приядаршини, OpenSearch 3.2 на 11 раз быстрее, чем первоначальный выпуск 1.0. Проект также предоставляет инструмент сравнительного анализа, позволяющий повторять и воспроизводимые тестирование производительности.

Взносы от нескольких компаний

В то время как Amazon был первоначальным спонсором Opensearch, проект видит вклады от нескольких компаний. Они включают в себя:

Bytedance: Способствовал полученному источнику для OpenSearch K-NN и внесла улучшения производительности в протоколе репликации сегмента.

Dtex: Внесли свой вклад возможности для управления инсайдерским риском и безопасности данных.

IBM DataStax: Внес вклад в двигатель JVector в поиск вектора OpenSearch.

Intel: Поместил SIMD в OpenSearch K-NN, обеспечивая повышение производительности на поддерживаемом оборудовании.

SAP: Способствовал соответствию FIPS, которое помогает рабочей нагрузке OpenSearch поддержать рабочие нагрузки, которые требуют соответствия спецификациям FIPS.

Uber: Внесла функцию проглатывания на основе тяги, которая устраняет необходимость в сложной настройке и конфигурации клиента. По словам сопровождающих проекта, новые функции, такие как GRPC и проглатывание на основе тяги, особенно используются для Uber.

Приядаршини сказал: «Эта общая инновация происходит, потому что многие организации понимают, что их доморощенные, индивидуальные платформы не могут идти в ногу с быстрыми темпами инноваций ИИ».

Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. BC Gain является основателем и главным аналитиком Revecom Media. Его одержимость компьютерами началась, когда он взломал консоль космических захватчиков, чтобы играть весь день за 25 центов в местной видеокаде в начале 1980 -х годов. Затем он … читайте больше от B. Cameron Gain

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *