Добро пожаловать в грязную середину ИИ: где 36-кратный прирост требует выдающихся инженеров

ЛАС-ВЕГАС – Генеральный директор Amazon Web Services Мэтт Гарман рассказал историю о Kiro, новой агентной IDE, в своем выступлении на AWS re:Invent.

Выдающийся инженер своей компании Энтони возглавил команду, которая с шестью разработчиками перепроектировала проект за 76 дней. Первоначально они ожидали, что это займет 18 месяцев с участием 30 человек. Потрясающая информация, достаточная, чтобы заставить инженера побежать к торговому автомату агента.

Этой осенью Гарман поделился своей историей с клиентами, которые спросили, как команде Энтони удалось это сделать. Подобные вопросы будут задаваться еще долгое время, что само по себе показывает, как мало людей знают об инфраструктуре, модели и о том, как использовать агентов, обеспечивающих то, для чего AWS требовались выдающийся инженер и команда.

Добро пожаловать в грязную середину.

Мы находимся в средневековье в области разработки, развертывания и управления рабочими нагрузками ИИ. Это «грязная середина» или «весёлые времена», как сказал мне один ведущий инженер. Это просто зависит от того, как вы на это смотрите.

Облаку потребовалось 10 или более лет, чтобы созреть. Зрелость ИИ может занять половину этого времени или даже меньше. В анонсах продуктов на re:Invent Гарман показал, насколько быстро развиваются темпы.

Но поразительно то, что это инновации без устоявшейся практики. Речь по-прежнему больше идет о том, как вы достигаете этих потрясающих результатов, чем о стандартизации лучших практик, поэтому вам не придется создавать с нуля графические процессоры, головокружительное количество моделей и агентных рабочих процессов, которые являются совершенно новыми для всех.

Гарман подчеркнул масштабность AWS. Да, компания генерирует 132 миллиарда долларов годового дохода и внедрила 1 миллион чипов Trainium, но это требует компромиссов.

Технологические компании изобретают новые очень крутые архитектуры. Но в то же время пользователи пытаются использовать это новое оборудование, плохо понимая, как инфраструктура вписывается в работу их предприятия. Быстрая разработка интересна, но поиск оптимальной архитектуры потребует времени и значительной адаптации, что является новинкой для большинства клиентов.

Быстрое развитие инфраструктуры

Гарман объявил, что Trainium теперь общедоступен, и провел предварительную версию Trainium 4. AWS также выпустила экземпляры P6 GB200 и GB300.

Сопоставьте эти объявления с проблемами, с которыми сталкиваются такие компании, как Uber, и вы поймете, что проблемы с переходом от облачных технологий к искусственному интеллекту будут только усложняться.

На KubeCon + CloudNativeCon North America в прошлом месяце Uber много рассказывал о том, как он использует несколько облаков и что нужно для оптимизации рабочих нагрузок ИИ в них. Клиентам нужен такой выбор, но реальность догнала Uber, как и все больше и больше клиентов.

И что потребуется для обучения моделей? Люди с капиталом и инженерным талантом будут процветать. Это время перемен, но насколько поляризованным оно станет для имущих и неимущих?

Показательный пример: Гарман рассказал о целом кампусе AWS, посвященном обучению Project Rainier для Claude, большой языковой модели Anthropic (LLM). Это целый кампус для одного проекта, сценарий, который находится за пределами того, что большинство компаний могут себе позволить или даже не имеют таланта, чтобы его рассмотреть.

Гарман сказал, что AWS предложит фабрики искусственного интеллекта, но внутри предприятий. Почему это? Тенденция репатриации сигнализирует о том, что клиенты хотят, чтобы их данные находились в их собственной инфраструктуре.

Это значительный сдвиг. Облако по-прежнему является королем, но есть еще одно ограничение, которое следует учитывать: узким местом является мощность. AWS создаст то, что сравнивает с регионами AWS. Это вертикально интегрированные возможности со встроенными сервисами Bedrock и другими сервисами AWS. Но вот в чем загвоздка: клиент несет ответственность за обеспечение мощности и всех требований центра обработки данных для выполнения рабочих нагрузок ИИ.

Модели, Модели, Везде

AWS анонсировала четыре новые модели Nova:

  • Амазон Нова Микро является только текстовым, что помогает решить проблемы с задержкой.
  • Амазон Нова Лайт является мультимодальной моделью.
  • Амазон Нова Про также является мультимодальной моделью с улучшениями в отношении точности, скорости и стоимости.
  • Амазон Нова Премьер Это самая совершенная модель компании.

Гарман также обсудил поддержку моделей от Anthropic, OpenAI, Cohere и других. А Nova Forge используется для создания версий моделей AWS, которые они называют новеллами. Цель: сделать создание модели с нуля более доступным.

В каждую технологическую эпоху распространение является правилом, а не исключением. После более чем десяти лет использования облачных распределенных рабочих нагрузок конвергенция теперь стала стремлением с распространением графических процессоров. Мы живем в эпоху специализации, а не общих рабочих нагрузок.

На KubeCon Эндрю Люнг из Uber указал на борьбу своей компании за достижение конвергенции — и она является лидером в использовании рабочих нагрузок искусственного интеллекта. Гарман, со своей стороны, заявил: «Мы никогда не верили, что будет одна модель, которая будет управлять всеми».

Однако такое распространение действительно влияет на конвергенцию, позволяя предприятиям поддерживать огромные распределенные рабочие нагрузки. На re:Invent Гаман рассказал об обширном выборе моделей. Но он не затронул большую проблему, с которой сталкиваются инженеры: процессоры и графические процессоры на практике сопоставимы, но не взаимозаменяемы.

Лучший пример — AWS. Гарман рассказал о Kiro, платформе, разработанной AWS.

«Теперь я хочу воспользоваться моментом и глубже погрузиться в одну из историй, которые мы услышали», — сказал он аудитории re:Invent. «Детали довольно высоки. Это цитата Энтони, одного из наших выдающихся инженеров. Энтони работал над проектом реструктуризации…»

Но где подробности дела? Кто такой Энтони? А для такой компании, как AWS, почему на это ушли недели?

AWS занимает отличное место. Команда Kiro, будучи командой AWS, знает, какую инфраструктуру и какие модели использовать. Команда может адаптироваться, поскольку она контролирует все аспекты разработки продукта.

Но этим членам команды все равно потребовались недели, чтобы достичь точки, когда они могли разработать реальный план. Им нужно было выяснить, что могут и чего не могут сделать агенты. И это одна команда.

Это поднимает вопросы о том, как AWS преуспевает в построении агентных архитектур и управлении состоянием — обо всех видах проблем, для решения которых клиенты имеют ограниченные ресурсы.

И вот почему мы слышим об Энтони. Его команда добилась впечатляющих успехов. Это само по себе говорит о многом.

Что последовало за этим? Как грандиозный успех этой команды привел к большим новостям об AWS.

«На самом деле, мы были настолько потрясены, что на прошлой неделе вся компания Amazon решила стандартизировать Kiro в качестве нашей официальной среды разработки искусственного интеллекта», — сказал Гарман.

Чем агенты искусственного интеллекта похожи на подростков

AWS только начинает свой путь. Поразительно, насколько глубока заинтересованность генерального директора в отношении рабочих нагрузок ИИ. Тот факт, что люди спрашивают, как последовать его примеру, показывает, что этот подход только начинает использоваться.

Тема «грязной середины» стала очевидной на протяжении всего выступления. Гарман сравнил агентов с воспитанием подростков. Им нужны основные правила; агентам нужен надзор. Они молоды — им есть чему поучиться.

Волнение в re:Invent ощутимо. Основной доклад рассказывал о великом новом мире, где инфраструктура и модели служат основой для агентного ИИ, и, возможно, даже о чудесах нового мира, который может так сильно измениться.

Но сейчас новые времена. Это действительно круто, но знания не так уж и передаваемы. Еще не совсем.

ТЕНДЕНЦИОННЫЕ ИСТОРИИ YOUTUBE.COM/THENEWSTACK Технологии развиваются быстро, не пропустите ни одной серии. Подпишитесь на наш канал YouTube, чтобы смотреть все наши подкасты, интервью, демонстрации и многое другое. ПОДПИСАТЬСЯ Группа, созданная в Sketch. Алекс Уильямс — основатель и издатель The New Stack. Он давний технологический журналист, работавший в TechCrunch, SiliconAngle и в компании, которая сейчас известна как ReadWrite. Алекс работает журналистом с конца 1980-х годов, начиная с… Читать далее от Алекса Уильямса

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *