Поскольку ИИ и другие семейные технологии, такие как Generative AI (Genai), продолжают просачиваться в окружающую среду по всему предприятию, бизнес -лидеры постоянно накапливаются, чтобы найти, создавать и развернуть новые случаи использования, от помощников по сбору данных для маркетологов до аналитических агентов для групп продаж.
Для команд безопасности, которым поручено защитить широкие и часто разрозненные облачные экосистемы, мониторинг потенциально сотни, если не тысячи проектов искусственного интеллекта, все на разных этапах сложности и зрелости, может ощущаться как пить воду из шланга — огромный беспорядок, движущийся невероятно быстро.
Недавние исследования почти 3000 специалистов по обеспечению безопасности и DevOps показали, что более половины (54%) назвали сложность и фрагментацию в облачных средах в качестве ведущей проблемы безопасности данных, а 71% организаций столкнулись с уязвимостью из -за стремительных развертываний. Неудивительно, что каждый третий респондент сказал, что они пытаются не отставать от быстрых технологических изменений и развивающихся угроз.
ИИ в развитии облаков: помните о пробелах
Несомненно, ИИ — в частности, был цифровым снижением B12 для инженеров и разработчиков программного обеспечения, повышение производительности и ускоряющуюся генерацию кода и общий темп нативных инноваций Cloud. Sundar Pichai, генеральный директор Google и Alphabet, раскрыл во время их прибыли в 3 квартале в октябре, что ИИ создается более четверти их нового кода, все еще под пристальным взглядом их инженеров.
Как сказал Сундар, хотя быстрое принятие ИИ для помощи в кодировании и за пределами «помогает нашим инженерам делать больше и двигаться быстрее», оно также вводит динамические проблемы безопасности и облачные уязвимости в масштабе, независимо от того, санкционировано ли использование. Это может быть что угодно от небезопасного кода, который увеличивает воздействие угроз в вторжениях облаков AI-автомагистрали, которые уклоняются от традиционных инструментов обнаружения. В недавнем отчете показано, что, несмотря на то, что 38% респондентов идентифицируют атаки, управляемые ИИ, как высший риск безопасности облачной безопасности, все (100%) уже используют разработку, связанную с АИ,.
Когда дело доходит до влияния ИИ на развитие облаков, факторы риска могут быть разделены на три одинаково в отношении столбов:
- Не знаю, чего вы не знаете: С таким большим количеством проектов искусственного интеллекта, от экспериментов до производства, работающего в облачных средах, для групп безопасности является целостное представление о ландшафте, не говоря уже о его потенциальном воздействии. Это отсутствие видимости приводит к нехватке управления, даже если существует комплексная политика, и может быть дополнительно усугубляться дорогостоящими нормативными и юридическими последствиями для несанкционированного использования.
- Больше моделей, больше проблем: Код, сгенерированный AI и более широкая инфраструктура ИИ, вводят новые элементы в облачные среды, которые потенциально могут вводить новые риски, такие как быстрые инъекции или отравленные данные, которые могут изменить поведение модели. Учитывая, что модельные взаимодействия очень неструктурированы, вариации атаки и уклонения могут быть просто битвой истощения с перегруженными и недоукомплектованными группами безопасности.
- Не забывайте свои данные: Как и арахисовое масло и желе, вы просто не можете иметь ИИ без данных, и эти данные, часто используемые для моделей Menetune с помощью таких процессов, как поколение поиска-августа (RAG), должны быть закреплены. Было продемонстрировано, что если плохие субъекты получают доступ к модели, они могут достичь своих первоначальных запатентованных или конфиденциальных данных организационных и клиентов. Таким образом, практическое правило: любая модель, обученная конфиденциальным данным, должна рассматриваться так, как если бы она содержит эти конфиденциальные данные.
ИИ в облачном развитии: риск не означает отступление
В то время как риски ИИ в облачных средах неопровержимы, так же как и награды. Что касается облачной безопасности, подумайте об ИИ как о цифровом двойном агенте — потенциале для нарушения периметров с возможностью укрепления их. Вот почему темпы организационных инноваций и инвестиций должны быть в тандеме с вашей осанкой безопасности — если ваша правая нога хочет работать, ваша левая нога не может ходить.
Для команд безопасности существует простой трифект лучших практик, чтобы обеспечить безопасное внедрение и интеграцию в облачные рабочие процессы:
- Поддерживайте инвентарь ИИ: У вас должна быть полная видимость вашей инфраструктуры ИИ — моделей, агентов, приложений, рабочих пространств — и того, как она отображает данные. Это можно сделать путем регулярного синхронизации с разработчиками, чтобы понять и каталогизировать, какие активы они используют, или автоматизируя его с помощью конкретных инструментов и решений.
- Выполнить оценки риска: Вы знаете, что они говорят о предположениях … вставьте работу и намечайте мыслимые риски, связанные с каждым трубопроводом AI, проектом, экосистемой и инфраструктурой — какое потенциальное влияние? Каковы угрозы? Это касается конфиденциальных данных? Это только внутреннее или с клиентом? Для чего он используется? Какие бизнес -процессы зависит от этого?
- Инвестировать в защиту угроз: Используют сквозные платформы и передовые продукты, такие как агенты искусственного интеллекта, которые могут защитить модельное взаимодействие в режиме реального времени. Обнаружение, реагирование и смягчение нарушений угроз по мере их возникновения, и помогают понять организационный контекст (который должен знать, кому необходимо одобрить действия, кто имеет право собственности, кто это повлияет), чтобы быстро сортировать проблемы и снизить риск.
ИИ в облачном развитии: ответственный путь вперед
Команды безопасности были названы отделом NO на протяжении десятилетий — несчастный прозвище, основанный на преувеличенных истинах. Gartner предсказывает, что к 2028 году принятие ИИ завершится более чем 50% ресурсов облачных вычислений, что уделяет более повышенную акценту на необходимость того, чтобы организации достигли баланса между эффективностью AI и надежной безопасностью в их облачных средах.
Это потребует равных обязательств со стороны инженеров и разработчиков, чтобы охватить открытость и пролить яркий свет на свои облачные рабочие процессы и от команд безопасности, чтобы сбросить этот этикетка обструкциониста и позволить их организациям и коллегам двигаться быстро и безопасно. Поддерживая 360-градусный взгляд на среду угрозы, понимая каждую часть оборудования и программного обеспечения в вашей инфраструктуре ИИ и инвестируя в расширенную защиту угроз, команды безопасности могут избежать беспорядка и просто сосредоточиться на поездке.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Yotam в настоящее время возглавляет данные и безопасность искусственного интеллекта в Cortex Cloud. Ранее он был главным директором по продуктам Dig Security, который был приобретен Palo Alto Networks в декабре 2023 года, создав решение Prisma Cloud Data Security Security. Подробнее от Йотам Бен-Эзра