Нам нужно стандартизировать процесс создания агентов ИИ, так почему бы не посмотреть на экосистему контейнера для вдохновения?
Это был вывод из разговора создателя Docker и генерального директора Dagger, Соломона Хикса, который выступил в ночной встрече SourceGraph инструментов, состоявшейся на прошлой неделе в штаб -квартире San Francisco Cloudflare.
«Должна быть программная экосистема, где мы могли бы повторно использовать вещи друг друга», — сказал Хикс. «Мы предлагаем кинжал как экосистему».
Dagger — это время выполнения двигателя с открытым исходным кодом для сборки программного обеспечения. Вклад инженеры DevOps создали тысячи модулей или DAG, для своих собственных процессов сборки контейнеров.
Хикс утверждал, что кинжал создает неизменную контейнерную стойку, полную специализированной логики, и дизайн может быть легко применен к созданию крупных языковых модельных агентов.
«Все эти стартапы, продающие вам модную инфраструктуру… ну, в основном, это теперь с открытым исходным кодом», — сказал он.
И чтобы продемонстрировать, как легко контейнеры заставляют вещи идти, Hykes построил простой агент ИИ и, в свою очередь, создал клон скручивания, используя только три вызовы функций.
Мы видели этот фильм раньше
Хикс вспоминал, что контейнер Docker был успешным в немалой части, потому что он приручил быстро растущую сложность создания веб -приложений. Разбейте приложение на многоразовые компоненты и контейнерируйте их для легкой репликации. Docker принес повторный использование и масштабируемость.
«Я предлагаю, чтобы мы делали то же самое для агентов», — предложил Хикс. «Поместите эти мозги в банку, а затем контролируйте то, к чему они подключаются».
Добавление возможности для внешних системных вызовов в LLMS было основным разбивателем заземления и быстро стало важным элементом для создания агента искусственного интеллекта. Они предоставляют протокол для LLM, чтобы вызвать дополнительную функцию, если это необходимо для выполнения задачи.
По мере того, как количество агентов простирается, и задачи, которые они выполняют, становятся более сложными, управление этими агентами скоро станет громоздким.
Дагс вниз
Hykes отметил, что LLM работают как хорошая система импульсируемой программной сборки. Они ограничены неизменным состоянием. Вы добавляете данные в окно контекста, и выполняется функция.
У кинжа есть новый предикат, называемый LLM, который в основном представляет собой пустое состояние с загруженным GPT-4O (хотя он может использовать другие модели).
С помощью оболочки кинжала или программно вы можете объединить несколько операций вместе. Первым из которых может быть, скажем, начальная подсказка.
Весь API кинжала представляет собой набор объектов, каждый из которых со своим собственным набором функциональных вызовов, схемы и состояния. Итак, в раковине кинжала вы можете создать контейнерный объект:
Llm | С конфитантом (контейнер | от Alpine | с новым файлом yay.txt ‘мой любимый язык-php’) 1 llm | с контейнером (контейнер | от Alpine | с новым файлом yay.txt ‘мой любимый язык-php’)
Выполнив приведенный выше пример создания объекта контейнера, Хикс добавил файл, yay.txt, чтобы доказать достоверность его живой демонстрации.
По его словам, в дополнение к созданию контейнера, команда также соединяет его с самой LLM, отметил он.
Оттуда вы можете объединить несколько объектов.
Когда «сборка» запускается, инструментация OpenElemetry может перечислить все шаги, которые он предпринял Цели (что также отлично подходит для подотчетности).
Hykes также показал, как на первом проходе команда создания контейнера установила PHP в сам контейнер, поэтому она будет доступна для последующего использования.
Отдыхающий!
Клон скручивания в трех функциях
Минимум для рабочей области LLM, посоветовал Hykes, по крайней мере, будет контейнер и состояние, функции для чтения и написания файлов и функция сборки (в идеале без аргументов).
Хикс написал DAG со всеми этими вещами под названием Toy-Workspace.
В демонстрации он установил игрушечный пространство в контейнер LLM. Он добавил элементарную подсказку для LLM:
Команда пользователя назначена переменной @Assignment.
Затем у него были последние инструкции:
- Не используйте контейнерный инструмент.
- Не строитесь, пока ваш код не построится.
- Функция зациклена.
Показывая свои демонстрационные отбивные, Хикс запустил эту очень программу, добавив только инструкцию: «Напишите мне клон скручивания». Через минуту у него был работающий клон для сгиба.
«Это магия развития агента», — сказал Хикс.
Агент отладки
YK Sugi, старший адвокат разработчика ИИ SourceGraph, который организовал встречу, оценил подход Dagger, особенно за отладку.
«Как человек, который сам построил агентов, я знаю, что построение агентов ИИ может быть проблемой», — написал он в сообщении LinkedIn.
«Ваши ошибки могут исходить от API LLM, который вы используете, или любая настройка, которая у вас есть для вашего LLM», — написал он. Это могут быть проблемы с ограничением скорости или синтаксис, не соответствующий доступной текущей версии. Это может быть боль, чтобы найти источник проблемы.
«С агентами у вас может быть конкретная проблема с путем, по которым он пытается следовать, или, может быть, синтаксис использования инструмента не является правильным с вывода LLM. Даже если LLM ведет себя так, как вы этого хотите, у вас могут возникнуть проблемы с сервисами бэкэнд ».
Способность кинжала изучать все журналы, не только из LLM, но и из тех, кто из бэкэнд служб, может быть большой помощью в этом отношении.
«Похоже, что это делает не только отладочную отладку, но и развитие в целом, так что легче разрабатывать более надежную систему», — написал он.
Весь вечер исходного GRAPGRAPH II DEV Night можно найти здесь.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Joab Jackson является старшим редактором нового стека, охватывающего облачные нативные вычисления и системы системы. Он сообщил об инфраструктуре и развитии IT более 25 лет, в том числе в IDG и государственных компьютерных новостях. До этого он … читал больше от Джоаба Джексона