Docker Model Runner приносит локальные LLMS на ваш рабочий стол

Docker сделал свое имя, сделав контейнеры доступными для всех. Теперь компания, которая является синонимом контейнерного разработки, пытается получить большую славу, позволяя разработчикам легко запускать и тестировать AI -модели (LLMS) на своих ПК с запуском Docker Model Runner.

Docker Model Runner-это новая бета-функция в Docker Desktop 4.40 для Apple Silicon-Power Mac. Эта функция позволяет разработчикам запускать LLMS и другие модели искусственного интеллекта на своих ПК. Вы можете получить доступ к нему непосредственно из командной строки. Он также плавно интегрируется в остальную часть экосистемы Docker.

Почему это делает это на местном уровне? Помимо возможности интегрировать его непосредственно в ваш рабочий процесс, Docker Model Runner устраняет необходимость вызовов на интерфейсы внешних облачных приложений (API). Это, в свою очередь, обеспечивает конфиденциальность данных, снижает задержку и снижает затраты.

С помощью Docker Model Runner ваши LLMS упакованы в виде артефактов открытых контейнеров (OCI). Это позволяет вытащить модели из Docker Hub или других реестров и интегрировать их в трубопроводы CI/CD, используя знакомые инструменты. Например, вы можете работать с моделями, используя знакомые команды Docker CLI, такие как «Docker Model Pull», «Docker Model Run» и «Список моделей Docker». Другими словами, модели ИИ являются «первоклассными гражданами» в рабочем процессе Docker, как контейнеры и изображения.

Запуск LLM на локальных машинах уже давно стала проблемой, затрудняя фрагментированные инструменты, проблемы со совместимостью с оборудованием и отключенные рабочие процессы. Разработчики часто совмещают несколько инструментов, настраивают сложные среды и управляют моделями за пределами своих контейнерных настройки, что приводит к трениям и растущим затратам на вывод облачного вывода.

Чтобы вытащить этот трюк, Docker Model Runner использует llama.cpp. Это библиотека C ++ с открытым исходным кодом, которая обеспечивает эффективное развертывание и вывод LLM без графических процессоров. Действительно, Крис Велтонс, известный инженер-программист, сообщает, что он смог успешно портировать Llama.cpp в Windows XP и запустить модель 360 м на ноутбуке эпохи 2008 года. Короче говоря, вы можете выполнять реальную работу над своим рабочим ПК с этими моделями.

Llama.cpp, как следует из названия, хорошо работает с Llama Llams Meta AI. Тем не менее, это не ограничивается моделями LLAMA. Благодаря использованию API-совместимого OpenAI, он может работать с другими моделями. Docker уже предоставил куриный список самых популярных LLM, которые наиболее подходят для местных вариантов использования. Самый простой способ начать — это проверить репозиторий AI Docker Hub.

В настоящее время уже более десятка LLM, но больше уже в пути. Docker сотрудничает с лидерами ИИ, такими как Google, Huggingface, Qualcomm, Spring AI, VMware Tanzu и Dagger. Эти сотрудничества приводят к широкому выбору высококачественных, оптимизированных моделей и инструментов непосредственно в рабочий процесс Docker, что облегчает разработчикам экспериментировать и создавать приложения с AI на местном уровне.

Заглядывая в будущее, Docker планирует расширить поддержку на дополнительные платформы, включая Windows с ускорением графического процессора. Кроме того, план состоит в том, чтобы позволить разработчикам публиковать пользовательские модели с более глубокой интеграцией в более широкую экосистему ИИ. Компания предполагает будущее, в котором работа, совместное использование и развертывание моделей искусственного интеллекта так же легко и стандартизировано, как работа с контейнерами сегодня.

Но подожди! Есть еще.

Протокол контекста модели

Docker также интегрирует протокол контекста модели (MCP). Это открытый стандарт, предназначенный для оптимизации соединения между агентами ИИ и источниками данных, инструментами и прикладными средами.

Первоначально разработанный антропическим, MCP быстро стал де-факто стандартом-иногда описываемым как «USB-C для ИИ»-для подключения помощников искусственного интеллекта с широким спектром ресурсов, включая базы данных, API, облачные сервисы и локальные файловые системы. Предоставляя универсальный протокол, MCP устраняет необходимость в пользовательских разъемах для каждого нового инструмента или источника данных, что значительно облегчает разработчикам создавать, развернуть и масштабировать агенты искусственного интеллекта, которые могут выполнять значимые, богатые контекстом задачи в разных средах.

Docker приносит его через каталог Docker MCP. Этот каталог Docker Hub обеспечивает централизованный способ обнаружить, запустить и управлять более чем 100 серверами MCP от ведущих поставщиков, включая Grafana Labs, Kong, Neo4j, Pulumi, Heroku и Elasticsearch. Разработчики теперь могут просмотреть и запускать инструменты с поддержкой MCP так же легко, как и традиционные контейнерные услуги.

Компания также предоставляет Docker MCP Toolkit, который привносит управление корпоративным классом и безопасность для рабочих процессов MCP. Он включает в себя такие функции, как управление реестрами и доступом к изображениям, обработку секретов и интеграцию OAuth, что облегчает командам безопасную публикацию, управление и подключение серверов MCP в их существующих средах Docker.

Смысл всего этого, согласно заявлению нового президента Docker и COO Mark Cavage, заключается в том, что «построение функциональных приложений искусственного интеллекта не должно чувствовать себя радикально отличным от создания любого другого приложения. Разработчики хотят интегрировать ИИ в свои существующие рабочие процессы-строить локально, тестировать и с уверенностью добыча. Приносит это все вместе в одном месте, доверенный, удобный для разработчиков опыт в Docker Hub, где инструменты проверены, безопасны и легко запускаться ».

Итак, если вы хотите сделать AI частью вашего рабочего процесса без крови, пота и слез, и вы уже используете Docker для своего рабочего процесса разработки, этот новый набор инструментов ИИ выглядит как верный победитель.

Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Стивен Дж. Воган-Николс, известный как SJVN, пишет о технологиях и технологии, так как CP/M-80 был передовой операционной системой ПК, 300BPS был быстрым подключением к Интернету, WordStar был современным текстовым процессором, и нам понравилось. Подробнее от Стивена Дж. Вогана-Николса

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *