Как построить агенты ИИ с обучением на протяжении всей жизни

Андела спонсировала этот пост.

ИИ выходит за рамки эры «Установить и забыть ее». В то время как мощные языковые модели, которые мы используем ежедневно, например, GPT-4, впечатляют, они могут сделать так много только до того, как вы попадете в стену. Эти модели, со всеми их сильными сторонами, не могут учиться на новых впечатлениях, как только они развернуты, что означает, что вы застряли в любой информации, которую они имели во время обучения.

Но что, если ваш помощник искусственного интеллекта может вспомнить каждый разговор? Что, если станет лучше в помощи клиентам после каждого билета на поддержку или узнал о вашей отрасли из всех обработанных документов? Это именно то, что делают постоянные учебные агенты, и они становятся важными, так как предприятия требуют ИИ, который адаптируется, а не стагнаты.

Традиционный ИИ — это все равно, что нанять блестящего таланта, который не имеет возможности формировать новые воспоминания. Они могут дать отличные ответы на основе того, что они уже знают, но они никогда не улучшаются и не учатся из опыта. Непрерывные учебные агенты разные. Они похожи на коллегу, который искренне поправляется на своей работе каждый день.

Ваш ИИ по продажам должен лучше понять ваш продукт после решения сотен вопросов клиентов. Ваш исследователь должен оставаться в курсе последних работ в вашей области. Ваш бот по обслуживанию клиентов должен распознавать повторяющиеся проблемы и развивать лучшие ответы с течением времени.

Технология для создания этих адаптивных агентов существует сегодня. Комбинируя языковые модели с интеллектуальными системами памяти и петлями обратной связи, вы можете создать ИИ, который развивается вместе с вашим бизнесом. Независимо от того, достаточно ли вы, чтобы создать его самостоятельно или вам нужно понять, что возможно для вашей организации, это руководство покажет вам, как это работает и почему это важно для развития приложений для ИИ.

Учебные шаги с кодом

Это пошаговое руководство по созданию постоянного изучения агента искусственного интеллекта покажет вам, как установить зависимости, настроить разговорного агента с памятью, создать хранилище знаний на основе векторов, реализовать конвейер обновления для новых знаний, создать цикл отражения, чтобы улучшить ответы с течением времени и, наконец, продемонстрировать, как извлечь и ответить на вопросы, используя как изученные знания, так и модель большого языка (LLM). Следуйте с каждым фрагментом кода и объяснением, чтобы создать свой собственный адаптивный агент.

Установить зависимости

Сначала мы устанавливаем необходимые пакеты Python: Langchain для оркестровки LLM, Llama-Index для векторного хранения и поиска, Openai для подключения с GPT-4, пандами для обработки данных и FAISS-CPU для поддержки индекса векторного хранилища.

PIP установить Langchain Llama-Index Openai Pandas Faiss-CPU

Эти инструменты работают вместе, чтобы создать интерактивный, извлеченный и постоянный трубопровод AI.

Настройка базового агента

от langchain.chat_models Импорт Chatopenai из langchain.memory import buffermemory из langchain.agents Импорт инициализация_агент llm = Chatopenai (model = «gpt-4») memorybuffermemory () agent = initiaze_agent («gpt-4″).[]llm, agent=»chat-conversational-react-description», memory=memory) 1234567 from langchain.chat_models import ChatOpenAIfrom langchain.memory import ConversationBufferMemoryfrom langchain.agents import initialize_agent llm = ChatOpenAI(model=»gpt-4″)memory = ConversationBufferMemory()agent = initialize_agent([]llm, Agent = «CHAT-Conversational-React-Description», Memory = memory)

Здесь мы инициализируем разговорного агента, используя GPT-4 с Langchain. Buffermemory Surneging отслеживает контекст диалога, позволяя ИИ ссылаться на предыдущие сообщения и поддерживать согласованность.

Создать векторный магазин для базы знаний

от Llama_Index Import VectorStoreIndex, SimpleDirectoryReader Reader = SimpleDirectoryReader («./ знание») docs = reader.load_data () index = vectorStoreIndex.from_documents (docs) Query_Engine = index.asquery_Engine () 123456 от llaMextery vectorextory vectredirederiretory vectorextory oDectoryRextory oDectoryRextory oDectoreRextory oDectoryRextory. reader = SimpleDirectoryReader («./NAKITY») docs = reader.load_data () index = vectorStoreIndex.from_documents (docs) Query_Engine = index.as_query_engine ()

Этот код загружает документы из папки с именем ./nknowledge и создает векторный индекс с использованием llamaindex. Индекс преобразует каждый документ в встраиваемые и хранит их, позволяя быстрому и актуальному поиску контекста позже.

Определить постоянное обновление обучения

def update_knowledge (new_text): from llama_index.schema import document doc = документ (text = new_text) index.insert (doc) index.save_to_disk («./ kb_index.json») 12345 def update_knowledge (new_text): из llama_index.schem index.save_to_disk («./ kb_index.json»)

Эта функция позволяет ИИ хранить новые знания — возможно, идеи, полученные во время разговора, — обертывая их в качестве документов и сохраняя их в индекс базы знаний. Это имитирует долгосрочную память в агенте.

Цикл размышлений и самостоятельного подготовки

def Conturnual_loop (): В то время как true: Query = input («Спросите что -то:») response = Agent.Run (запрос) print (ответ) обратная связь = input («Вы хотите сохранить это знание? (y/n)»), если обратная связь.lower () == ‘y’: update_conglege (response) 12345678 defback. Agent.Run (Query) Print (ответ) обратная связь = input («Вы хотите сохранить эти знания? (y/n)»), если обратная связь.lower () == ‘y’: update_knowledge (ответ)

Здесь мы реализуем непрерывный цикл для ИИ для взаимодействия с пользователем. После ответа ИИ просит обратную связь. При одобрении он сохраняет новый ответ в свой магазин знаний. Этот цикл — то, как агент учится в режиме реального времени.

Получить из обновленных знаний

def ask_with_context (Вопрос): context = Query_Engine.query (Вопрос) .Response refface = f «Использование этого контекста: {context}, ответ: {Вопрос}» return Llm.predict (rample) 1234 def ask_with_context (Вопрос): Context = Query_Engine.query (Вопрос). llm.predict (подсказка)

Отвечая на вопросы, мы получаем контекст из векторного индекса, чтобы обогатить ответ LLM. Это соединяет разрыв между статическими возможностями LLM и динамически изученной информацией.

Профессиональные советы по развертыванию реального мира

  • Оставьте все с помощью контекста: Добавьте информацию источника и временные метки в свои документы, чтобы вы могли отследить, откуда пришли знания и когда они были изучены.
  • Чистый дом регулярно: Настройте периодические обзоры, чтобы обнаружить дубликат или противоречивую информацию, прежде чем она раскачивает память вашего агента.
  • Отметьте неопределенные вещи: Когда ваш агент не уверен в ответе, отметьте его для человеческого обзора, а не позволить ему раскрыть его.
  • Сделайте его придерживаться между сессиями: Храните то, что ваш агент изучает в общей базе данных, такой как Pinecone или Qdrant, чтобы он помнит по разным разговорам и пользователям.
  • Контроль, кто узнает что: В командной среде вам понадобятся разные уровни доступа, чтобы конфиденциальные знания не протекают не тем пользователям или контекстам.

Почему это важно и что будет дальше

Чат -боты, которые впечатляют нас сегодня, в конечном итоге почувствуют архаичные, когда у нас будут агенты, которые на самом деле становятся умнее от каждого взаимодействия. Вы бы предпочли иметь помощника, который дает те же консервированные ответы навсегда или тот, который изучает ваши предпочтения и станет лучше, помогая вам со временем?

Эта эволюция уже происходит, поскольку компании понимают, что статический ИИ быстро попадает в потолок, в то время как агенты, которые адаптируются и развиваются, становятся действительно полезными инструментами, которые растут с их пользователями.

Переход от базовых чат -ботов к ИИ, который на самом деле помнит, учится и улучшается, — это только начало, будь то репетитор, который адаптируется к потребностям студентов, финансовым консультантом, который изучает рыночные модели или агентов поддержки, которые улучшают проблемы.

Вскоре мы увидим эти учебные агенты, подключенные к живым веб -поиску, календарным системам и даже физическим роботам. Фондом, который вы строите сейчас с постоянным обучением, будет то, что отделяет по -настоящему интеллектуальные системы от остальных.

Узнайте, как построить агенты ИИ с Langgraph в Python, с гидом Анделы.

Andela предоставляет крупнейший в мире частный рынок для глобального отдаленного технологического таланта, основанного на платформе с AI для управления полным жизненным циклом найма контракта. Andela помогает компаниям масштабировать команды и быстрее реализовать проекты через специализированные области: App Engineering, AI, облако, данные и аналитика. Узнайте больше последних из Andela Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Oladimeji Sowole является членом Andela Talent Network, частного рынка для глобальных технологических талантов. Ученый из данных и аналитик данных с более чем 6 -летним профессиональным опытом создания визуализаций данных с различными инструментами и прогнозирующими моделями … Подробнее от Oladimeji Sowole

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *