Поскольку ИИ и другие семейные технологии, такие как Generative AI (Genai), продолжают просачиваться в окружающую среду по всему предприятию, бизнес -лидеры постоянно накапливаются, чтобы найти, создавать и развернуть новые случаи использования, от помощников по сбору данных для маркетологов до аналитических агентов для групп продаж.
Для команд безопасности, которым поручено защитить широкие и часто разрозненные облачные экосистемы, мониторинг потенциально сотни, если не тысячи, из проектов искусственного интеллекта — все на разных этапах сложности и зрелости — может чувствовать, что пытаться выпить воду из пожарного вещества: огромный беспорядок, движущийся невероятно быстро.
Недавние исследования почти 3000 специалистов по обеспечению безопасности и DevOps показали, что более половины (54%) назвали сложность и фрагментацию в облачных средах в качестве ведущей проблемы безопасности данных, а 71% организаций столкнулись с уязвимостью из -за стремительных развертываний. Неудивительно, что каждый третий респондент сказал, что они пытаются не отставать от быстрых технологических изменений и развивающихся угроз.
ИИ в развитии облаков: помните о пробелах
Несомненно, ИИ — особенно Genai — был цифровым выстрелом B12 для инженеров и разработчиков программного обеспечения, повышает производительность и ускоряющую генерацию кода, а также общий темп облачных инноваций. Sundar Pichai, генеральный директор Google и Alphabet, раскрыл во время их доходов в 3 квартала в октябре, что ИИ, конечно же, генерируется более четвертью их нового кода, все еще под пристальным взглядом их инженеров.
Как сказал Сундар, хотя быстрое принятие ИИ для помощи в кодировании и за пределами «помогает нашим инженерам делать больше и двигаться быстрее», несомненно, он также вводит динамические проблемы безопасности и облачные уязвимости в масштабе, независимо от того, является ли использование санкционировано или нет. Это может быть что угодно от небезопасного кода, который увеличивает воздействие угроз в вторжениях облаков AI-автомагистрали, которые уклоняются от традиционных инструментов обнаружения. В недавнем отчете показано, что, несмотря на то, что 38% респондентов идентифицируют атаки, управляемые ИИ, в качестве высшего риска безопасности облачной безопасности, все (100%) уже используют разработку A-A-A-A-A-Assist.
Когда дело доходит до влияния ИИ на развитие облаков, факторы риска могут быть разделены на три одинаково в отношении столбов:
- Не знаю, чего вы не знаете: С таким большим количеством проектов искусственного интеллекта, от экспериментов до производства, работающего в облачных средах, для групп безопасности является целостное представление о ландшафте, не говоря уже о его потенциальном воздействии. Это отсутствие видимости приводит к нехватке управления, даже если существует комплексная политика, и может быть дополнительно усугубляться дорогостоящими нормативными и юридическими последствиями для несанкционированного использования.
- Больше моделей, больше проблем: Код, сгенерированный AI и более широкая инфраструктура ИИ, вводят новые элементы в облачные среды, которые могут потенциально ввести новые риски, такие как быстрые инъекции или отравленные данные, которые изменяют поведение модели. Учитывая, что модельные взаимодействия очень неструктурированы, вариации атаки и уклонения могут быть просто битвой истощения с перегруженными и недоукомплектованными группами безопасности.
- Не забывайте свои данные: Как и арахисовое масло и желе, вы просто не можете иметь ИИ без данных, и эти данные, часто используемые для моделей Menetune с помощью таких процессов, как поколение поиска-августа (RAG), должны быть закреплены. Было продемонстрировано, что если плохие актеры получают доступ к модели, они могут получить доступ к своим первоначальным запатентованным или конфиденциальным данным организации и клиента. Таким образом, практическое правило: любая модель, обученная конфиденциальным данным, должна рассматриваться так, как если бы она содержит эти конфиденциальные данные.
ИИ в облачном развитии: риск не означает отступление
В то время как риски ИИ в облачных средах неопровержимы, то же самое и награды. Когда дело доходит до облачной безопасности, подумайте об ИИ как о цифровом двойном агенте — он может нарушить периметры, а также поддерживать их. Вот почему темпы организационных инноваций и инвестиций должны быть в тандеме с темами вашей осанки — если ваша правая нога хочет работать, ваша левая нога не может ходить.
Для команд безопасности существует простой трифект лучших практик, чтобы обеспечить безопасное внедрение и интеграцию в облачные рабочие процессы:
- Поддерживайте инвентарь ИИ: Полная видимость вашей инфраструктуры ИИ — моделей, агентов, приложений, рабочих мест — и того, как она отображает данные. Это можно сделать с помощью регулярных синхронизации с разработчиками, чтобы понять и каталогизировать активы, которые они используют, или это может быть автоматизировано с использованием конкретных инструментов и решений.
- Выполнить оценки риска: Вы знаете, что они говорят о предположениях … вставьте работу и намечайте мыслимые риски, связанные с каждым трубопроводом AI, проектом, экосистемой и инфраструктурой — какое потенциальное влияние? Каковы угрозы? Это касается конфиденциальных данных? Это только внутреннее или с клиентом? Для чего он используется? Какие бизнес -процессы зависит от этого?
- Инвестировать в защиту угроз: Используют сквозные платформы и передовые продукты, такие как агенты искусственного интеллекта, которые могут защитить модельное взаимодействие в режиме реального времени. Обнаружение, реагирование и смягчение нарушений угроз по мере их возникновения, и помогают понять организационный контекст (которому нужно знать, кому необходимо одобрить действия, кто имеет право собственности, кто это повлияет), чтобы проблемы сортировки и быстро снизить риск.
ИИ в облачном развитии: ответственный путь вперед
В течение десятилетий команды безопасности были названы департаментом NO — несчастный прозвище, основанный на преувеличенных истинах. Gartner предсказывает, что к 2028 году принятие ИИ завершится более чем 50% ресурсов облачных вычислений, что уделяет более повышенную акценту на необходимость того, чтобы организации достигли баланса между эффективностью AI и надежной безопасностью в их облачных средах.
Это потребует равного обязательства инженеров и разработчиков, чтобы принять открытую и пролить более яркий свет на свои облачные рабочие процессы, от команд безопасности, чтобы пролить этикетку обструкциониста и стать активаторами для своих организаций и коллег, позволяющих им двигаться быстро и безопасно. Поддерживая 360-градусную обзор среды угроз, понимая каждую часть аппаратного и программного обеспечения в вашей инфраструктуре искусственного интеллекта, а также инвестиции в расширенную защиту угроз, команды безопасности могут избежать беспорядка и просто сосредоточиться на поездке.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом.