Агенты Confluent в реальном времени опираются на потоковые данные Kafka

Сегодня Confluent представила функцию потоковых агентов в открытом предварительном просмотре в Confluent Cloud. Новая функциональность позволяет организациям выбирать модели, инженерные подсказки, указать инструменты и источники, реализовать тестирование и обеспечивать обогащение данных для систем, вызванных событиями, многоагентных систем ИИ.

Дополнение Confluent к парадигме на основе AI запоминается по двум причинам. Во -первых, он предназначен для того, чтобы реализовать полное видение обещания умных агентов, оснащая их самыми последними данными, доступными в подножиях Apache Kafka на платформе, доставив агентов последним ситуационным интеллектом.

Во-вторых, он инвертирует модель, в которой люди запускают агенты ИИ (как правило, через подсказки естественного языка в чат-боты) на полноценные агенты, инициируемые событиями, реагирующие на данные предприятия с низкой задержкой.

По словам Шона Фальконера, главы ИИ Confluent, потоковые боты частично предназначены для продвижения предприятия ближе к реальности, в которой ИИ характеризуется «окружающими, управляемыми событиями агентами, которые внедряются в вашу инфраструктуру, мониторинг состояния бизнеса и реагируя на изменения этого состояния и затем, реагируют на эти изменения, инвестируют проблемы, и придерживаются действий», и придерживаются действий », и вносятся в действие», и реагируют на действие, основанные на изменениях этого состояния, а затем, реагируют на эти изменения, и придерживаются действий », и придерживаются действий».

Таким образом, эти агенты с AI могут предоставить организациям «глаза» и «уши», чтобы получить новейшие разработки, управляемые данными, влияющие на бизнес-кейсы, прежде чем обеспечить немедленно интеллектуальные системы. Связывая возможности для хранения и обмена сообщениями Apache Kafka с аналитикой, моделями ИИ и потоковыми агентами, найденными в Combleant Cloud для Apache Flink, новая функция Confluent’s может сделать именно это.

Строительные агенты в Flink

Совместные пользователи могут построить потоковые агенты с помощью простых процессов в сливом облаке для Apache Flink. Flink предоставляет вычислительные средства для агентов взаимодействовать с инструментами через MCP, возникающий стандарт для агентов, призывающих к ресурсам. Пользователи, связанные с облицовками, могут подключаться к базам данных MCP, Vector и SQL, а также конечные точки API непосредственно из Clound Flink «надежно, и мы управляем любыми из этих конечных точек», — сказал Фалконер.

Flink также, где организации могут указать действия, которые они хотят, чтобы агенты приняли, и получить доступ к массиву Confluent моделей (в том числе от Gemini, Openai и Anpropic) для укрепления этих агентов. «Как правило, вы используете одну или несколько моделей, и именно здесь начинается процесс построения агента: какая модель будет использовать», — сказал Фалконер.

Подсказки системы и задачи

В слившемся облаке для Apache Flink пользователи также определяют подсказки для агентов, что является двусторонней проблемой, которая является частью общего процесса контекстного проектирования. Подсказки для агентов включают в себя системные подсказки, которые указывают, какую роль будет играть агент в рамках более крупного процесса, и подсказки, которые определяют характеристики рабочих характеристик, ожидается выполнять.

Например, можно издать системную подсказку о том, что «этот агент является экспертом в написании электронных писем, и вы также даете ему четкие инструкции о том, что вы хотите, например, написать электронное письмо на основе следующего ввода, в котором описывается этот конкретный пользователь», — сказал Фальконер. Подсказка, определяющая характеристики работы, сужает масштаб действий агента, кодифицируя его входы и выходы. «Если я забиваю лидерство, то я знаю, что вход будет лидером, а выход должен быть от одного до 100», — сказал Фалконер. «Если выходной вывод дико, я могу поймать его в тот самый момент, что облегчает тестирование и развитие этих вещей».

Кафка связь и хранение

Несмотря на его значительную зависимость от слитого облака для Apache Flink, большая часть привлекательности потоковых агентов заключается в его фонде Kafka для межагентного общения. Вместо того, чтобы использовать протоколы, такие как A2A, потоковые агенты используют Kafka для агентов, которые сдают разные части рабочего процесса для выполнения более крупной задачи — например, обнаружение сбоя сети для поставщика телекоммуникаций.

Переклятые исходные данные, такие как отчеты о погоде, датчики IoT и многое другое, первоначальные входные данные для этого варианта использования — «несколько событий, поступающих из гетерогенных входов, которые представляют состояние бизнеса», — упомянул Фалконер. «Как только агент получает эти данные, он также общается с какой -то внешней системой, чтобы собрать дополнительный контекст. Затем он выводит вывод, который, вероятно, раздувает несколько систем, включая другие агенты, где эти агенты затем реализуют вывод».

Как правило, начальные события Falconer описывали землю в темах Кафки, откуда эти данные могут быть направлены, чтобы менять для агрегации, обработки или аналитики. После того, как эти данные взяты агентом для его роли в варианте использования, агент затем возвращает эти данные в Кафку (с большей вероятности различные темы Кафки, чем первоначальный, указал Falconer).

Затем данные о новых темах побуждают других агентов действовать в этом континууме. Возможности обмена сообщениями и хранения Кафки одинаково ценны для этого аспекта развертываний потоковых агентов и обеспечивают «отслеживание между агентом первым и агентом два», — прокомментировал Фалконер. «Если я хочу знать, какой агент сказал агенту два, и мне нужно изменить агент два с новой подсказкой или моделью, или каким -то образом развивать его, или если я хочу, чтобы мы могли вернуться назад и воспроизвести историю общения, чтобы я мог проверить его против реального трафика, чтобы увидеть, действительно ли это улучшает результаты, вы получаете все эти свойства воспроизведения из ящика, используя Kafka».

Тестирование и обогащающие агенты

Confluent также обеспечивает поддержку Dark Launch в рамках своих возможностей тестирования потоковых агентов. Через парадигму Dark Launch, агент работает в производственном трафике, но не взаимодействует с конечными пользователями. Организации могут иметь этого агента в производственных системах, а затем запустить вторую его версию, возможно, с другой моделью или разными подсказками, и оценить производительность второй, не влияя на операции.

Оригинальный агент «делает такие вещи, как предоставление данных для взаимодействия с пользователями, в то время как другой обрабатывает сообщения и генерирует выходы, чтобы вы могли измерить ее производительность, чтобы увидеть, лучше ли версия вторая», — пояснил Фалконер. Пользователи также могут подвергать агентов A/B тестирование в среде Confluent и обогатить данные, которые они получают через внешние таблицы Confluent. С помощью этой конструкции пользователи могут оставаться в сливании и запросить внешние таблицы (например, в MySQL) и получить доступ к результатам на платформе потоковых данных.

Enterprise Eyes and Ears

Увеличивая агенты с данными потоковой передачи в реальном времени, Confluent увеличивает возможности этих цифровых инструментов для выступления от имени предприятия. Сокол сравнил этот интеллект в реальном времени с глазами и ушами предприятия, в то же время сопоставляя его с таковыми, полученными из исторических данных.

«Большинство деловых случаев нуждаются в обоих», — сообщил Фальконер. «Исторические данные, что клиент сделал шесть месяцев назад, и что они делают прямо сейчас, пока они на моем веб -сайте». Если агенты, наполненные ИИ, имеют ту же информацию, они обладают огромным потенциалом для работы согласно концерту, чтобы оптимизировать результаты бизнеса и организационные цели.

Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Jelani Harper работал аналитиком, руководителем исследований, консультантом по информационным технологиям и журналистам более 10 лет. В течение этого времени он помогал бесчисленным поставщикам и публикациям в области управления данными, разрабатывать, сочинять и поместить … Подробнее от Jelani Harper

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *