Охрана искусственного интеллекта требует лучшей инфраструктуры, а не больше инструментов

Эдера спонсировала этот пост.

Рынок безопасности ИИ имеет момент «Император не имеет одежды». Согласно отчету Latio A2 2025 AI Security Market, 93% специалистов по безопасности признают потенциал ИИ для повышения кибербезопасности, но ошеломляющие 77% организаций чувствуют себя не подготовленными защищать от угроз, основанных на искусственном интеллекте. Более того, при обследовании об их непосредственных приоритетах безопасности ИИ практикующие выявили тревожное разрыв между обменом сообщениями поставщиков и реальными потребностями.

Я был свидетелем этого отключения в первую очередь через беседы с корпоративными клиентами, спешащими для развертывания рабочих нагрузок искусственного интеллекта. Образцы отражают то, что мы видели во время внедрения контейнеров — волнение, превосходящее безопасность, с болезненными уроками, извлеченными только после того, как происходят инциденты.

Великое неправильное направление безопасности ИИ

Большинство поставщиков безопасности ИИ решают вчерашние проблемы, в то время как завтрашние угрозы уже материализуются. В отчете показано, что большинство решений по безопасности искусственного интеллекта началось с того, что сосредоточились на предотвращении потери данных сотрудников (DLP), по сути, создавая причудливые инструменты мониторинга, чтобы наблюдать за тем, что сотрудники вставляют в CHATGPT. Другие сосредотачиваются на «брандмауэрах», которые фильтровали входы и выходы LLM, которые полезны, но ограничены по объему. Между тем, реальный риск быстро смещается в сторону приложений искусственного интеллекта, которые могут получить доступ к конфиденциальным данным и предпринять действия от имени пользователей.

Это неправильное направление не случайно. Решения в стиле DLP легче построить и подключаться к знакомым образцам страха CISOS. Но по мере того, как Microsoft Copilot и Google Gemini созревают со встроенными ограждениями, эти решения мониторинга становятся коммодитизированными.

Фундаментальная проблема — это не только инструменты безопасности искусственного интеллекта; Речь идет о том, может ли базовая инфраструктура поддерживать безопасные рабочие нагрузки искусственного интеллекта в масштабе. Многие организации создают приложения ИИ на основе контейнеров, которые никогда не были предназначены для требований изоляции, которые требуют чувствительных рабочих нагрузок искусственного интеллекта.

Где инфраструктура соответствует риску безопасности ИИ

Самая важная информация отчета о «защите времени выполнения приложений» — проблемы безопасности, которые возникают, когда системы ИИ выходят за рамки простых чат -ботов, чтобы стать автономными агентами. Рассмотрим эволюцию риска: базовый сеанс CHATGPT несет минимальный риск, но агенты искусственного интеллекта представляют совершенно разные ландшафты угроз. Например, помощники по кодированию ИИ, которые могут выполнять произвольный код во время разработки, или агентов, которые запрашивают внутренние базы данных и запускают финансовые транзакции. Эти сценарии требуют контроля безопасности на уровне инфраструктуры.

Вот где решения инфраструктуры становятся критическими. Рабочие нагрузки ИИ. Обработка, конфиденциальные данные требуют той же изоляции уровня ядра, от которой зависят предприятия для их наиболее важных приложений. Общая модель ядра, на которую полагаются многие развертывания искусственных интеллекта на основе контейнеров, создает векторы атаки, которые просто не могут быть адекватно защищены только с помощью защиты на уровне приложений.

Согласно обзору безопасности контейнеров Microsoft 2024, рабочие нагрузки на основе контейнеров сталкиваются с растущими угрозами безопасности, когда команды безопасности часто не могут отслеживать, какие контейнеры работают или уязвимы в любой момент времени. Для рабочих нагрузок ИИ обрабатывает конфиденциальные данные, эти пробелы в видимости становятся критическими уязвимостями.

Требования к инфраструктуре ИИ рабочие нагрузки действительно нуждаются в

Приложения для ИИ требуют три характеристики инфраструктуры, которые традиционные развертывания контейнеров борются за предоставление:

  • Истинная изоляция: Модели ИИ Обработка Собственные данные нуждаются в разделении на уровне ядра, а не только изоляции пространства имен. Когда система ИИ может получить доступ к записям клиентов или финансовым данным, уязвимости общего ядра становятся критически важными для бизнеса.
  • Производительность без компромисса: Рабочие нагрузки с выводом ИИ чувствительны к задержке. Сеть и накладные расходы ввода/вывода, присущие многим контейнерным архитектурам, могут сделать приложения ИИ в реальном времени непригодными для использования.
  • Динамическое распределение ресурсов: В отличие от традиционных приложений, рабочие нагрузки искусственного интеллекта имеют очень изменчивые потребности в ресурсах. Инфраструктура, которая может динамически распределять графические ресурсы и ресурсы памяти на основе фактического спроса, устраняет массовые отходы чрезмерного выражения, которые извлекают стандартные развертывания контейнеров.

Решение о сборке против покупки против ожидания

Инвестиционный ландшафт рассказывает раскрывающую историю. В то время как организации тратят более 320 миллиардов долларов на инфраструктуру искусственного интеллекта в 2025 году, рынок безопасности искусственного интеллекта составляет всего 25 миллиардов долларов — фракция, ориентированная на обеспечение этих огромных инвестиций в инфраструктуру. Это несоответствие подчеркивает разрыв между расходами на инфраструктуру и подготовкой к безопасности.

Ответ на то, должны ли организации инвестировать в выделенные инструменты безопасности искусственного интеллекта, зависит от вашей скорости принятия ИИ и зрелости инфраструктуры. Если вы создаете приложения ИИ, которые обрабатывают конфиденциальные данные, выделенные инструменты предлагают специализацию, которую не могут соответствовать. Но решения архитектуры имеют большее значение, чем выбор поставщиков. Организации, которые создают инфраструктуру ИИ с изоляцией на уровне гипервизора и обеспечивают многопользовательство с нуля, имеют значительные преимущества по сравнению с теми, кто пытается модернизировать безопасность в существующие развертывания контейнеров.

Традиционные поставщики безопасности быстро добавляют возможности искусственного интеллекта, но они играют в догоняние от решений, разработанных с нуля для этого ландшафта угроз. Наиболее эффективные подходы объединяют проверенные принципы безопасности, такие как изоляция на основе гипервизора, с современными реализациями, оптимизированными для характеристик рабочей нагрузки искусственного интеллекта.

Взгляд на хрустальный шар

Основываясь на выводах отчета, появляются три тенденции:

Во-первых, ориентированная на DLP безопасность искусственного интеллекта будет быстро консолидироваться, поскольку платформы будут строить собственную защиту. Во -вторых, защита от выполнения приложений будет стимулировать большую часть роста рынка, при этом безопасность инфраструктуры станет ключевым отличием. В -третьих, «Безопасность по дизайну» по сравнению с «безопасностью как запоздалой мыслью» отделяет лидеров рынка от подписчиков.

Что организации должны делать сейчас

Растущие боли на рынке безопасности искусственного искусства отражают прошлые циклы внедрения технологий. Организации, которые будут процветать, — это те, которые сосредоточены на их фактическом профиле риска и фонде инфраструктуры, а не на тенденциях безопасности.

Начните с задания этих вопросов: где ИИ на самом деле развернут в вашей организации? Какие данные он может получить доступ? Может ли ваша текущая инфраструктура обеспечить адекватную изоляцию для этих рабочих нагрузок? Ответы должны стимулировать вашу стратегию безопасности ИИ, а не маркетинг поставщиков.

Применяйте проверенные по времени принципы инфраструктуры, адаптируясь к уникальным требованиям ИИ. Те, кто строит безопасные, эффективные основы, превзойдут тех, кто зажигает безопасность на неадекватную инфраструктуру.

У императора может не быть одежды, но признание того, что реальность — это первый шаг к созданию безопасности ИИ, который на самом деле работает.

Edera Reimagines Container Container, обеспечивая оптимизацию ресурсов для рабочих нагрузок без нарушения рабочих процессов разработчика. Мы перепроектировали основную архитектуру: решение с аппаратного обеспечения, а не программное обеспечение. Наш подход соединяет разрыв между тем, как контейнеры отправляются и как они должны работать. Узнайте больше последних из Edera Trending Stories youtube.com/thenewstack Tech Moving быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Кейлин Тричон — директор по маркетингу в Edera и опытный руководитель кибербезопасности, специализирующийся на обеспечении безопасности облачных, интеллектуальных угроз и развитии Kubernetes. До прихода в Edera она занимала руководящие должности в Chainguard и Google. Подробнее от Kaylin Trychon

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *