Через два года после генеративной революции ИИ LLM, которые такие электроинструменты, как Chatgpt и Claude, стали поразительно мощными. Однако, по словам генерального директора Salesforce Марка Бениоффа, они могут достигать своих пределов. По мнению Бениоффа, следующая эволюция не обязательно более интеллектуальна, а автономные агенты ИИ, которые используют LLMS для самостоятельного выполнения задач.
Бениофф серьезно относится к агентскому ИИ, запускающемуся в прошлом году Agentforce, чтобы привлечь миллионы агентов искусственного интеллекта для клиентов Salesforce. Он не один: считайте, что Иеремия Оуян, бывший аналитик Forrester, стал венчурным капиталистом, предсказал, что вскоре будет больше агентов ИИ, чем люди, с целых 100 агентами ИИ на человека. Если даже часть этих прогнозов сбудется, это будет иметь глубокие последствия для будущего электронной коммерции.
Представьте себе мир, в котором агенты ИИ захватывают обе стороны взаимодействия с клиентом-изджетом. Активы с клиентами, такие как веб-сайты и веб-приложения, могут быть широко заменены-или, по крайней мере, интегрированы с агентами ИИ, персонализированными для клиента. Эти агенты могут затем взаимодействовать с агентом ИИ клиента, автоматизируя цикл продаж с транзакциями агента в агенту.
Salesforce не единственный, кто принимает агент AI. Согласно опросу 1100 руководителей на крупных предприятиях Capgemini, 10 процентов организаций уже используют агенты искусственного интеллекта, более половины планируют их использовать в следующем году, а 82% планируют их интегрировать в течение следующих трех лет. Шестьдесят четыре процента этих руководителей ожидали, что агент агент для улучшения обслуживания клиентов и удовлетворенности. К 2028 году Gartner прогнозирует, что 33% корпоративных программных приложений будут включать агент AI.
Учитывая эти прогнозы, это только вопрос времени, когда клиенты ожидают, что агенты искусственного интеллекта предоставит им информацию, необходимую для принятия решения о покупке, а не искать его сами.
Архитектура, необходимая для развертывания агентского искусственного интеллекта, в настоящее время разрабатывается для предприятий, стремящихся оставаться впереди кривой и интегрировать его в свои веб -приложения. В частности, чтобы облегчить тысячи взаимодействий с клиентами по всему миру, предприятиям потребуется возможность развернуть выводы по ИИ с низкой задержкой на грани.
Создание архитектуры для поддержки вывода агента AI на краю
Разработка архитектуры для поддержки вывода с низкой задержкой на грани является важной предпосылкой для агентских операций по ИИ в масштабе, особенно в электронной коммерции, где агенты ИИ должны взаимодействовать в режиме реального времени с клиентами по всему миру. Этот сдвиг к краю уже ведется: недавнее исследование S & P Global Market Intelligence (по заказу Vultr) показало, что более 80% из 1000 опрошенных специалистов ИИ и ИТ -специалистов ожидают, что они будут развивать свои операции с ИИ в следующем году.
Тем не менее, большинство предприятий не имеют инфраструктуры для поддержки вывода Edge AI в масштабе, и они никогда не будут. GPU и другие специализированные чипы ИИ являются чрезмерно дорогими и быстро устаревшими, что делает нецелесообразным инвестировать в эти ресурсы внутренне.
Выводы ИИ, обслуживаемый в среде, требуют другого технического стека, чтобы сделать ИИ в масштабе экономически эффективным. Для большинства предприятий бессердечный подход к выводу искусственного интеллекта будет оптимальным как для стоимости, так и для производительности.
Вывод без сервера: оптимальный выбор стоимости и производительности
Чтобы избежать капитальных затрат на закупку выделенных чипов ИИ, которые быстро устаревают, подход без сервера использует ресурсы, управляемые облачным провейдером, для соответствия каждой рабочей нагрузке ИИ с оптимальным ресурсом для вычисления для этой задачи. Короче говоря, без сервера вывод позволяет предприятию оставлять проблемы инфраструктуры облачным поставщикам, которые занимаются этим ежедневно.
Использование подхода без сервера позволяет предприятиям воспользоваться разнообразием кремния облачных поставщиков-гиперспециализации Compute Chips AI для удовлетворения уникальных вычислительных требований на каждом этапе жизненного цикла модели AI. С точки зрения клиента, подход без сервера автоматически управляет масштабированием соответствующих ресурсов на основе рабочей нагрузки и использования AI и использования требований для оптимизации затрат и производительности.
Благодаря без серверного подхода к управлению вычислительными ресурсами и оптимизации затрат, следующим шагом является разработка архитектуры для поддержки потоковой передачи данных с низкой задержкой с помощью управления управлением данными для обеспечения безопасности данных клиентов.
Поддержание суверенитета данных и конфиденциальности с помощью агента в режиме реального времени
Чтобы выйти за рамки общих приложений искусственного интеллекта, таких как CHATGPT, агентские приложения ИИ нуждаются в доступе к конфиденциальным запатентованным данным. Это особенно верно в контексте электронной коммерции, где данные клиента необходимы для агентов искусственного интеллекта для предоставления клиентам контекстной релевантной информации. Конечно, всякий раз, когда модели искусственного интеллекта используют собственные данные, предприятие должно соблюдать местные требования управления данными.
Векторные магазины и поколение из поиска (RAG) являются эффективными стратегиями для поддержания контроля управления данными для вывода AI Fuel Agig, где бы ни находились данные. При таком подходе конфиденциальные данные хранятся в векторных хранилищах, защищенных локальными управлениями управления данными, которые агенты ИИ получают доступ по мере необходимости, используя тряпку, а не напрямую обучать модели конфиденциальным данным.
Векторные хранилища и тряпка обеспечивают контекстуально подходящие идеи, не подвергая конфиденциальных данных стороннему поставщику моделей. Содержание векторного магазина может быть пополнено без переподготовки всей модели, которая снижает затраты на обучение. Этот подход также делает модели более легко транспортируемыми по географии при соблюдении местных требований суверенитета данных.
Помимо управления данными, предприятиям также нужна потоковая передача данных с низкой задержкой для облегчения взаимодействия агента в реальном времени. Apache Kafka, платформа потоковой передачи данных с открытым исходным кодом, идеально подходит для подачи потоковых данных в реальном времени в агентские приложения AI. С магазинами тряпичной и вектора Apache Kafka обеспечивает приложения для AI с низкой задержкой на грани, сохраняя при этом местное управление.
Агент ИИ усиливает необходимость правильного архитектурного подхода
По сравнению с традиционным искусственным интеллектом, агент AI будет значительно обременять инженерные команды на настройке и поддержании сложной инфраструктуры, необходимой для поддержки роя агентов искусственного интеллекта, распространяемых по обширной географии и тысячам устройств с краями. Единственный жизнеспособный подход — это вывод без сервера в сочетании с тряпкой и управляемой кафкой, который гарантирует, что задачи, выполняемые агентами ИИ, будут выполняться точно и надежно без значимой задержки.
На аутсорсинге сложности инфраструктуры, настройки и автоматической масштабирования облачным поставщикам, инженерные команды могут сосредоточиться на создании надежного уровня приложений для ИИ, разработке специально построенных агентов ИИ и приоритетных качества обслуживания клиентов. Без сервера подход к инфраструктуре искусственного интеллекта настраивает идеальную основу для создания нового агента будущего для путешествия клиента.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Кевин Кокрейн является главным директором по маркетингу Vultr, где он работает над созданием глобального присутствия бренда Vultr в качестве лидера на рынке независимой облачной платформы. Он более 25 лет пионера в цифровом опыте. Кевин … Подробнее от Кевина Кокрейна