«Наши прототипы ИИ великолепны, но их запуск в производство займет шесть месяцев — если нам повезет». Звучит знакомо?
Сегодня команды выпускают прототипы за несколько дней, если не часов, но на то, чтобы дойти до производства и получить возврат инвестиций, могут потребоваться месяцы. И это происходит во время наблюдения за тем, как конкуренты ежедневно или еженедельно запускают функции на базе искусственного интеллекта, в то время как ваши команды остаются парализованными неизвестными рисками и устаревшими процессами, предназначенными для приложений со статическим развертыванием.
Если это не проблема модели ИИ, проблема талантов или даже проблема бюджета, то в чем же основная причина? Предприятия застревают в принятии решений и застревают в процессах на стыке скорости и доверия. Если они будут действовать слишком быстро, они опасаются, что поставят под угрозу свою политику безопасности и соответствия требованиям, но если они будут действовать слишком медленно, они рискуют стать неактуальными.
Организации, вырвавшиеся из этого цикла, перестали навязывать новые рабочие нагрузки с помощью устаревших процессов или устаревших основ. Вместо этого они создают и внедряют системы, рассчитанные на сложность направления, в котором движется сегодня ИИ, а не на статические ограничения приложений, как пять лет назад.
Когда сложный ИИ сталкивается с фрагментированной инфраструктурой
Ранние приложения на основе искусственного интеллекта были простыми по сравнению с сегодняшними. Обычно они использовали одну модель ИИ для выполнения конкретной задачи, выполняемой только в одной среде. Это уже не так. Большинство рабочих нагрузок ИИ сегодня состоят из нескольких агентов, координирующих рабочие процессы, объединяющих большие языковые модели (LLM) для сложных задач и работающих в распределенных системах. Каждый новый слой умножает сложность. Системы, лежащие в основе современных стеков искусственного интеллекта, развиваются быстрее, чем инфраструктура, которая их поддерживает.
Здесь все начинает ломаться.
Вот реальный пример. Блестящий прототип, который ваши команды по анализу данных и разработке программного обеспечения создали вместе на прошлой неделе, включает более 50 пакетов с открытым исходным кодом, которые они выбрали. Каждый пакет содержит свои собственные зависимости, причем каждая новая зависимость имеет свои потенциальные уязвимости и последствия для лицензии. Большинству организаций сложно отследить, какие из этих пакетов имеют уязвимости, какие используются, не обновлены или какие незаметно приводят к задержкам в критически важных производственных средах. Поскольку рабочие нагрузки ИИ становятся более сложными, каждая новая модель ИИ, агент ИИ и интеграция увеличивают риск безопасности быстрее, чем может справиться управление.
Даже когда риск безопасности контролируется, сама окружающая среда становится препятствием. Прототип, который безупречно работает в блокноте специалиста по обработке данных, может загадочным образом выйти из строя на этапе подготовки или вести себя непредсказуемо в производстве. Виновником обычно является «дрейф окружающей среды». Это происходит, когда зависимая версия пакета отличается, изменилась конфигурация или уровень оркестрации ведет себя по-другому. Традиционные конвейеры программного обеспечения построены на стабильных и видимых компонентах; однако эти границы исчезают, когда дело доходит до рабочих нагрузок ИИ. Командам приходится отлаживать не одну среду, а множество, практически не имея представления о том, что, где и почему работает.
А когда спустя несколько месяцев что-то идет не так, проблемы с устранением неполадок усугубляются. Уязвимость проявляется. Выходные данные модели ИИ начинают вести себя неожиданно. Но какая версия какой модели ИИ или агента действовала в тот момент? Какова была спецификация материалов AI (AIBOM) на момент инцидента? Какие наборы данных использовались? Без надежного происхождения команды не могут отслеживать развертывания, безопасно откатывать назад или учиться на ошибках. В эпоху сложного искусственного интеллекта отсутствие происхождения — это не незначительное неудобство, а угроза безопасности.
Не столь скрытая цена фрагментированных цепочек инструментов
Последствия для бизнеса трудно игнорировать. Gartner сообщает, что 84% руководителей технологических компаний сделали незапланированные стратегические повороты в 2025 году, многие из которых были вызваны проектами искусственного интеллекта, которые стремительно вышли за пределы этих инфраструктурных ограничений. Не потому, что модели ИИ потерпели неудачу, а потому, что окружающие их системы не могли поддерживать производство в масштабах предприятия.
Но ИИ будет продолжать масштабироваться: 72% организаций сообщают, что их команды используют инструменты ИИ еженедельно. Такой высокий уровень использования может представлять угрозу безопасности, особенно когда команды работают быстро и не имеют четкого представления о том, как используется или применяется ИИ. Фактически, только 13% предприятий имеют четкое представление о том, как ИИ на самом деле используется в их организации, и 1 из 80 подсказок генеративного ИИ (GenAI) раскрывает конфиденциальные данные. Кроме того, по данным Check Point Research, 7,5% всех запросов содержат конфиденциальные или личные данные.
Прямо сейчас каждая новая модель ИИ, агент ИИ и рабочий процесс на базе ИИ требуют восстановления доверия с нуля. Но поскольку руководство требует более быстрых результатов с помощью ИИ, команды по соблюдению требований требуют более жесткого контроля. К сожалению, существующие наборы инструментов делают и то, и другое практически невозможным. Это приводит либо к многообещающим прототипам, которые так и не поставляются, либо к рискованным обходным путям, которые полностью обходят управление.
Что на самом деле меняет шаблон
Организации, выходящие из тупика ИИ, не исправляют старые процессы, а перестраивают свои основы, рассматривая ИИ как единую основу, созданную для решения сложных задач с первого дня.
Эти организации не относятся к управлению и безопасности как к второстепенным вопросам. Каждая зависимость должна быть прослеживаемой, каждая модель ИИ проверена, а каждая среда — воспроизводимой, прежде чем они начнут создаваться. Когда доверие является первым соображением, за ним следует скорость. Команды безопасности имеют полное представление о рисках проекта, команды разработчиков платформ готовы с первого дня, команды обработки данных работают в масштабе, а команды разработчиков эффективно добиваются результатов. В этих организациях всем командам не приходится выбирать между скоростью и доверием.
Команды также хотят создавать согласованные приложения и сервисы, способные выдерживать сложности. «Дрейф среды» — это не просто неприятность такого масштаба, а блокирующий фактор, который заставляет команды идти наперекор, чтобы выпустить продукт быстро или вообще выпустить продукт. В случае сложного ИИ «он по сути идентичен» означает отсутствие масштаба или потенциальный сбой в производстве, и обеспечение единообразия становится для команд единственным способом поддерживать скорость.
Наконец, организации могут обеспечить прозрачность всей экосистемы и рабочего процесса. Чтобы повысить уверенность, командам необходимо точно знать, что и где работает и какие зависимости составляют их AIBOM в любой момент времени. Если или когда что-то сломается, точное знание того, когда возникли проблемы с безопасностью и что на них повлияло, вместо того, чтобы гадать, какая из сотен зависимостей вызвала каскадный риск, поможет значительно сократить время, затрачиваемое на устранение инцидента.
Эти неброские части стека приложений, включая управление зависимостями, воспроизводимые среды по требованию, а также автоматизированную безопасность и управление, дадут возможность масштабировать сложные рабочие нагрузки ИИ, не разрушаясь под их собственной сложностью, и при этом не застревать на пересечении скорости и доверия. В этом разница между организациями, демонстрирующими прототипы на базе ИИ, и теми, которые создают, защищают, развертывают и контролируют собственные приложения и рабочие нагрузки на основе ИИ, которые обеспечивают эффективность и инновации для их команд и клиентов.
Выбор впереди
Препятствием на пути к успеху ИИ являются не возможности, а инфраструктура и зрелость процессов. Организации, идущие вперед, возглавляются теми, кто предпочитает инвестировать в современные фонды, где доверие и скорость сосуществуют, а встроенные системы безопасности и управления ускоряют, а не препятствуют. Фрагментированные цепочки инструментов и среды заставляют вас выбирать между ними, но современная унифицированная инфраструктура и современные процессы искусственного интеллекта позволяют вам иметь и то, и другое. Сегодня устранение узких мест создает ваше конкурентное преимущество. Это не просто техническая амбиция; конкурировать и выжить на современном рынке — это бизнес-императив.
ТЕНДЕНЦИОННЫЕ ИСТОРИИ YOUTUBE.COM/THENEWSTACK Технологии развиваются быстро, не пропустите ни одной серии. Подпишитесь на наш канал YouTube, чтобы смотреть все наши подкасты, интервью, демонстрации и многое другое. ПОДПИСАТЬСЯ Группа, созданная в Sketch. Дэвид ДеСанто — главный исполнительный директор Anaconda, где он возглавляет миссию компании по расширению возможностей мирового сообщества в области науки о данных и искусственного интеллекта посредством инноваций с открытым исходным кодом и безопасных корпоративных решений. Проверенный руководитель по продуктам и технологиям, Дэвид приносит больше, чем… Подробнее от Дэвида ДеСанто