Lambda Labs HyperScaler фокусируется на разработчике ИИ

Существует небольшой секрет, что Lambda Labs, гиперсмаслят искусственного интеллекта (ИИ), знает: не все разработчики ИИ являются разработчиками программного обеспечения, предложил Роберт Брукс IV, член группы Lambda и вице -президент по доходам.

«Эти люди не обязательно являются инженерами программного обеспечения. Они эксперты по математике; Это то, что такое набор навыков », — сказал Брукс новый стек. «Если вы позволите этим людям не придется сосредоточиться на стороне DevOps, чтобы запустить облако и просто сосредоточиться на математике, так как создавая модель машинного обучения, поэтому мы получили построение большого бренда в космосе».

Lambda Labs фокусируется на разработчиках ИИ

Lambda Labs, названные в честь исчисления Lambda Church Alonzo Church, исторически сосредоточенного на инженерах машинного обучения и преимущественно на тренировке и точной настройке рынка ИИ. Это означало, что разработчики либо строили что-то с нуля, либо принимали модель с открытым исходным кодом и настраивали ее на свои собственные потребности.

Теперь он сам по маркетингу является гиперскладером для всех разработчиков искусственного интеллекта, от хардкорного исследователя глубокого обучения до веб -разработчика, подключающего API машинного обучения к фронте приложения.

«Действительно, в течение последних двух лет мы видели, как выводы взорвались на нашей платформе, потому что самая большая вещь в чипе Nvidia — это то, что у него есть двойная цель быть хорошей для обучения и вывода», — сказал Брукс. «Мы видели взрыв с точки зрения нашего пользователя, связанного с инженером -программистом [who’s] Использование ИИ в их коде ».

В ИИ вывод — это процесс, в котором обученная модель машинного обучения использует свои знания для принятия прогнозов или решений по новым, невидимым данным. Это то, что по сути создает результаты ИИ.

Почему облако для разработчиков ИИ?

Есть удивительно простая причина, по которой Lambda Labs решила сосредоточиться на гипер -облаке для разработчиков ИИ: они были инженерами машинного обучения, которые хотели создать инфраструктуру для поддержки своих собственных приложений.

Платформа расположена на 25 000 графических процессоров, что делает ее «одной из немногих компаний в мире, которая способна использовать нашу инфраструктуру для правильного обслуживания этих приложений», — сказал Брукс.

«Немногие компании имеют столько же графических процессоров NVIDIA, сколько и мы. Вот почему мы на этом конкретном пути », — добавил он. «Причина, по которой мы развертываем инфраструктуру, заключается в [that] В конечном итоге мы хотим иметь возможность использовать его, потому что мы на самом деле инженеры по машинному обучению ».

«Поскольку у нас есть вся эта инфраструктура, мы позволяем людям расти вместе с нами и не быть ограниченным искусственно — никакого каламбура не предназначено на это слово».
— Роберт Брукс IV, член основания Lambda и вице -президент по доходам

Их основатель, Стивен Балабан, является инженером по машинному обучению, который участвовал в конкурсе компьютерного зрения, когда ИИ начал идентифицировать собаку от кошки. По словам Брукса, он создал приложение Computer Vision, которое локально работало на iPhone под названием Dreamcope, в котором использовалась грубая, сделанная на заказ нервная сеть, чтобы сделать то, что делает Generative AI.

«В конечном счете, создавая эти приложения, мы полагались на все больше и больше графических процессоров NVIDIA, чтобы построить, а затем производство ИИ», — сказал он. «Таким образом, у нас была эта проблема в 2015, 2016, и примерно в 2017 году мы полностью разобрались с созданием этой инфраструктуры для других команд искусственного интеллекта, так как мы были очень знакомы с этой проблемой».

Благодаря их знаниям, Lambda Labs публикует один из самых низких APIS в мире вывода в мире, утверждает Брукс. Компания приняла это решение специально.

«Мы вертикально интегрированы, поэтому есть много людей, с которыми мы конкурируем, которые только что построены поверх облака графических процессоров других людей, но, поскольку мы действительно владеем инфраструктурой, мы можем лучше контролировать стоимость», — сказал он. «У нас есть центры обработки данных. У нас есть графические процессоры. У нас все. Мы пишем все программное обеспечение. Мы на самом деле продаем себя как самый дешевый API вывода. Это не ограниченная ставка ».

Компании часто позволяют разработчикам использовать до x суммы миллионов токенов в час, день или месяц, но тогда разработчик должен поговорить с продавцом, сказал он.

«Поскольку у нас есть все эта инфраструктура, мы позволяем людям расти вместе с нами и не быть ограниченными искусственно — никаких каламбур, предназначенных для этого слова», — добавил Брукс.

По словам Брукса, многие беспокоятся о сроке годности графических процессоров, потому что Nvidia начинает запускать новые, а исторически, что каденция составляла каждые три -четыре года. Lambda Labs не беспокоится об этом, потому что сегодня он развертывает графические процессоры для клиентов, и как только контракт заканчивается, Lambda Labs использует графические процессоры для собственного обучения и услуг ИИ.

«Есть этот действительно хороший петлей обратной связи, потому что мы инженеры по машинному обучению, управляющие облаком, где он позволяет нам расти быстрее и производить больше исследований ИИ и больше программного обеспечения для машинного обучения с течением времени», — сказал он.

Инструменты для разработчиков ИИ

Один из способов стартапа помогает инженерам машинного обучения и разработчикам искусственного интеллекта, заключается в том, что он обладает подходом и подходом к борьбе.

«Когда инженер машинного обучения или разработчик искусственного интеллекта переходит в наше облако и разворачивает графический процессор, все их инструменты, рамки, библиотеки, на которые им необходимо полагаться-по сути, их магазин приложений-уже предварительно построены и там для них, поэтому они могут сосредоточиться на своей работе»,-сказал Брукс.

Lambda Labs выпустила свой API вывода, который в целом стал доступным в декабре. Это позволяет разработчикам использовать языковые модели ИИ в своих приложениях без накладных расходов на управление сложной инфраструктурой.

«Теперь у нас есть выделенные услуги по оказанию помощи клиентам фактически обслуживать модели в своих приложениях. Это был хороший, постепенный рост в направлении гораздо более ориентированного на производство ИИ, или то, что мы называем выводом »,-сказал Брукс.

Он также представил Lambda Chat, который обеспечивает доступ к различным крупным языковым моделям, многие из которых являются открытым исходным кодом. По словам Брукса, чат Lambda — их первый набег на обслуживание потребителей с моделями с открытым исходным кодом. Это бесплатно для потребителей, хотя Lambda заряжает разработчиков за вызовы API.

В прошлом месяце компания собрала 480 миллионов долларов в финансировании серии D для расширения своей облачной платформы AI. План состоит в том, чтобы использовать эти деньги для создания большего количества программных инструментов для разработчиков искусственного интеллекта и развертывания большего количества графических процессоров для удовлетворения спроса клиентов.

Компания также заявила, что будет продолжать разрабатывать Lambda Chat, в котором размещаются DeepSeek-R1 и другие модели с открытым исходным кодом.

DeepSeek входит в чат

TNS спросил Брукс, как DeepSeek R1 изменил вещи в ИИ для гиперсметористов. DeepSeek R1 представляет собой большую модель экспертов (MOE) на 671 миллиарда (MOE), что означает, что она предназначена для выполнения сложных задач путем стратегической активации различных «экспертных» подсчетов в более широкой модели. Он сделал заголовки для возможности делать ИИ с меньшим количеством графических процессоров.

Брукс добавил, что введение DeepSeek на рынок привело к повышению спроса.

«Мы испытали своего рода крайний спрос, связанный не только с машинным обучением и инженерами, которые раскручивают экземпляры в нашем облаке, но и люди, использующие наш API вывода для подключения к их применению», — сказал он. «Таким образом, это был демократизирующий эффект с точки зрения начала распространять больше этой функции по большему количеству приложений».

Но в конечном счете, Deep Seek не хватает графических процессоров, чтобы управлять производством, сказал он. Вот почему есть предел, сколько вопросов вы можете задать.

Он сказал, что Lambda Labs обслуживает многие крупные предприятия с этими частными облачными созданиями от 4000 до 8000 кластеров графических процессоров. Предприятия заинтересованы в запуске DeepSeek, но с большим количеством графических процессоров.

Конкуренты

Другие компании, которые предлагают графические процессоры в качестве услуги, включают:

  • Nebius, который предлагает управляемое обслуживание машинного обучения;
  • Луч, который может похвастаться инфраструктурой ИИ для разработчиков;
  • Церебриум, который продает без сервера для инженеров машинного обучения;
  • SaturnCloud, который нацелен на ученых данных; и
  • Модальный

Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Loraine Lawson — ветеран -репортер, который в течение 25 лет освещал технологические проблемы от интеграции данных до безопасности. Прежде чем присоединиться к новому стеку, она работала редактором Banking Technology Site Bank Automation News. Она … читайте больше от Лорейн Лоусон

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *