Что такое «AI Native» и почему ключ MCP?

В отличие от облачных технологий, термин «нативный искусственный интеллект» не имеет четкого определения. Можно даже сказать, неопределенное. Многие рассматривали этот термин как преемника термина «родной для облаков», намереваясь получить эффект ореола от его предшественника.

Проблема, однако, в том, что термин «нативный для облака» возник органически как способ описания набора архитектур, практик, шаблонов, технологий и связанных с ними инноваций, которые ознаменовали масштабный сдвиг в системных архитектурах. Этот сдвиг наиболее кратко описан в знаменитой аналогии «домашние животные против крупного рогатого скота».

К сожалению, сегодня «нативный ИИ» — это амбициозный маркетинговый термин, который используется скорее для того, чтобы сказать «Эй, мы используем ИИ», а не для того, чтобы подчеркнуть сдвиг в системной архитектуре. Почему это? Это потому, что мы находимся на ранней стадии автономной эры (также известной как «эра искусственного интеллекта»).

Прошло всего несколько лет с начала этой эры, а многие из этих практик, моделей и технологий либо совершенно новы, либо неправильно поняты, либо просто еще даже не появились.

Среди новых технологий лидируют некоторые яркие моменты, такие как протокол контекста модели (MCP). Несмотря на это, мы все еще далеки от четкого определения того, что такое «нативный искусственный интеллект».

Хотя ИИ быстро развивается, многие из закономерностей, которые предстоит определить, возникнут только благодаря внедрению ИИ и агентных рабочих процессов. В эпоху автономии большая часть передовых технологий быстро опережает внедрение. Чтобы смотреть вперед, мы должны оглянуться назад.

Наступление эры облачных вычислений и облачных приложений — наш лучший ориентир на будущее. Пристальный взгляд на быстрое появление и развитие MCP, которому чуть больше года, также дает нам некоторое представление о том, где мы находимся в определении того, что должно означать «нативный искусственный интеллект».

Расцвет Cloud Native

Еще в 2010 году эксперты и первые сторонники облачных технологий обсуждали основные принципы облачных архитектур. Эти дискуссии предшествовали реальному термину, но идеи уже начали довольно хорошо формироваться.

Термин «нативный облачный подход» стал популярным лишь в 2014 году. В 2010 году мы использовали такие термины, как «готовность к облаку» или «ориентация на облако». На самом деле, вот цитата из интервью, которое я дал Адриану Кокрофту, тогдашнему главному архитектору Netflix. В то время Кокрофт работал над перепроектированием и преобразованием видеосервиса Netflix в облачную архитектуру на AWS, мигрируя из своей устаревшей инфраструктуры «домашних животных» в собственный центр обработки данных.

Кокрофт: «Главная задача состоит в том, чтобы прийти к тому же мышлению, что и Google в этом мире, доступность и надежность ваших приложений и сервисов должны быть заложены в архитектуру вашего программного обеспечения, вы должны предположить, что оборудование и базовые службы эфемерны, ненадежны и могут быть сломаны или недоступны в любой момент, и что другие арендаторы в мультитенантном общедоступном облаке будут добавлять случайную перегрузку и дисперсию. На самом деле у вас всегда была эта проблема в масштабе, даже с самым надежным оборудованием, поэтому Архитектура, готовая к облаку, предполагает использование шаблонов, которые необходимо использовать в больших масштабах, и их использование в меньшем масштабе для создания наименее затратной инфраструктуры».

Примерно в 2014–2015 годах, с появлением Kubernetes и основанием Cloud Native Computing Foundation (CNCF), термин «cloud Native Computing Foundation» вошел в обиход. Kubernetes, одна из первых по-настоящему облачных платформ доставки приложений, ушла из Google, предоставив возможности и архитектуру гипермасштабирования в упакованной форме, стандартизировав шаблоны, а остальное уже история.

Таким образом, независимо от того, измеряете ли вы начало облачных вычислений с момента появления бизнес-модели «плата за напитки», которую Salesforce.com впервые внедрила в 2000 году, или с публичного запуска AWS EC2 в 2008 году, между облаком как инновацией и «облачным родным» как полностью выкристаллизовавшимся отраслевым термином существует временной разрыв не менее шести лет. Почему это?

Это потому, что в период с начала 2000-х по 2014 год, когда внедрялись облака, мы находились в процессе обнаружения, внедрения и нормализации закономерностей. За пределами гиперскейлеров дискуссии о теореме CAP (выберите два: согласованность, доступность или устойчивость к разделению), слабой связи, возможной согласованности, шаблонах выключателей, отсрочке и повторении попыток, горизонтальном масштабировании и всем остальным были немногочисленны и редки. В настоящее время это все устарело и хорошо понимается во всей отрасли.

Это подводит нас к сегодняшнему дню и к ранним ошибочным попыткам определить «нативный ИИ», прежде чем мы даже выяснили, какими должны быть шаблоны.

Пристальный взгляд на MCP и AI Native

Нет сомнений в том, что ИИ меняет весь ИТ-стек, и мы наблюдаем за собой масштабные архитектурные изменения. На уровне инфраструктуры то, что когда-то было нишевыми технологиями, использовавшимися только в суперкомпьютерных/высокопроизводительных вычислительных центрах, теперь широко применяется для новых фабрик искусственного интеллекта на предприятиях и в государственных учреждениях.

Горизонтальное масштабирование сместилось в сторону модели «правого масштабирования»: горизонтального, вертикального или того и другого. Так называемые «ускоренные вычисления» означают переход от традиционных процессоров к графическим процессорам, тензорным процессорам (TPU) или специализированным интегральным схемам (ASIC)/программируемым пользователем вентильным матрицам (FPGA), предназначенным для векторных вычислений. Дезагрегированные системы «белого ящика» уступают место вертикально интегрированным, ориентированным на поставщиков системам, предназначенным для выкачивания большего количества токенов в секунду с наименьшими затратами.

Между тем, агенты ИИ, которые приносят наибольшую пользу от ИИ, во многом зависят от механизмов вывода генеративного ИИ (GenAI)/машинного обучения (ML), которые являются их мозгом «нечеткой логики». Эти агенты состоят из минималистских каркасов и инструментов, окруженных механизмами вывода («рассуждения больших языковых моделей [LLMs]»), которые обеспечивают всю основную бизнес-логику.

Высоко детерминированный классический код уступает место недетерминированным «мыслящим машинам», которым — на данный момент — все еще требуются ограждения, оценки и люди в цикле для обеспечения качественного вывода.

Тем не менее, положительный момент очевиден: эти системы, хотя и менее детерминированные, могут одновременно обрабатывать неопределенность, крайние случаи и непредвиденные ситуации так, как никогда не мог детерминированный классический код. Самое главное, как и в случае с появлением облачных технологий до этого, ясно, что не все изменится.

Классический код должен переплетаться с логикой искусственного интеллекта и бесперебойно работать с ней. Мы даже наблюдаем передовые разработки по динамической интерполяции классического кода и логики LLM.

Хотя ИИ был с нами на протяжении десятилетий, как и многие модели, лежащие в основе «облака», были с нами десятилетиями, прежде чем они застыли в форме, только в последние несколько лет, благодаря GenAI, ИИ стал чем-то полностью сформированным и пригодным для массового внедрения.

Сейчас, в эту автономную эпоху, мы находимся в процессе понимания того, как она преобразует весь стек ИТ, и внедрение агентов ИИ — это то, где произойдет настоящее обучение.

Еще слишком рано понимать, что означает «нативный искусственный интеллект». Прошло всего несколько лет, и мы знаем лишь несколько новых моделей. Мы только сейчас узнаем, что работает, а что нет. Давайте посмотрим на недавнее появление MCP и его быструю эволюцию в качестве примера.

Во-первых, MCP, судя по всему, возник из-за прямой потребности, выявленной внутри Anthropic. Необходимость — мать изобретений, хотя эта содержательная поговорка подтверждается снова и снова.

Запущенный всего год назад, MCP быстро получил распространение, со всеми недостатками и всем остальным. В течение нескольких месяцев Anthropic выпустила крупное обновление MCP, включившее аутентификацию и базовую безопасность, что было серьезным упущением в исходной версии.

Несколько месяцев спустя была выпущена еще одна версия, содержащая реестр MCP — небольшая оплошность, но еще один очевидный недостаток. Совсем недавно Anthropic начала отходить от своего первоначального фокуса на серверах MCP, предоставляющих «инструменты» для вызова агентов, к модели, использующей классический детерминированный код для вызова нескольких инструментов, сохраняя деградацию контекстных окон/данных и значительно повышая эффективность.

Это не критика. Вот так делается колбаса. Если бы Anthropic подождала, пока MCP станет «идеальной», возможно, она не получила бы быстрого распространения. Это канонический маршрут минимального жизнеспособного продукта (MVP), который так хвалят в кругах Кремниевой долины, за которым следуют быстрые итерации, основанные на обратной связи, потребностях клиентов и практическом обучении. Именно так мы изучаем шаблоны, технологии и архитектуры, которые в конечном итоге станут «родными для ИИ».

Не все, что мы узнаем о «нативном искусственном интеллекте», будет получено через MCP. Обучение будет происходить по всему спектру, но MCP будет центральным элементом, как потому, что Anthropic продемонстрировала способность быстро внедрять инновации, так и из-за недавнего объявления о создании Agentic AI Foundation с открытым исходным кодом.

Мне вспоминается, как OpenStack «высосал кислород из комнаты» при своем запуске, забив гвоздь в гроб своих предшественников, таких как CloudStack, Eucalyptus, OpenNebula и других. Аналогичным образом, MCP с открытым исходным кодом просто ускорит процесс, стимулируя дальнейшие инновации, создавая экосистему MCP и помогая нам быстрее и дальше переходить к «нативному искусственному интеллекту». Без сомнения, Anthropic представила альтернативы, такие как Agent2Agent (A2A) от Google, с уведомлением о том, что она намерена сделать MCP стандартом, а не одним из многих.

ТЕНДЕНЦИОННЫЕ ИСТОРИИ YOUTUBE.COM/THENEWSTACK Технологии развиваются быстро, не пропустите ни одной серии. Подпишитесь на наш канал YouTube, чтобы смотреть все наши подкасты, интервью, демонстрации и многое другое. ПОДПИСАТЬСЯ Группа, созданная в Sketch. Рэнди Биас — новатор в области облачных технологий, DevOps и технологий с открытым исходным кодом, получивший признание за успешные усилия по использованию открытого исходного кода на предприятиях всех размеров и существенно влияющий на переход отрасли от проприетарных моделей. Он сыграл решающую роль… Подробнее от Рэнди Биаса

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *