IBM захватывает Shadow AI: Слепая пятно предприятия

С взрывом использования ИИ для быстрого создания приложений на предприятии, IBM внедрила инструменты, помогающие организациям спорить с системами ИИ и агентов, о которых они могут не знать.

Недавно IBM запустила то, что он называет «первым программным обеспечением в отрасли для объединения агентского управления и безопасности», которое интегрирует Watsonx.governance и Guardium AI Security, чтобы помочь предприятиям сохранить свои системы ИИ, включая агентов, обеспеченные и ответственными в масштабе, Хизер Джентиле, исполнительный директор Watsonx.governance, Data и AI, рассказанный в новом стеке.

Watsonx.governance-это комплексный инструмент управления ИИ от ИБ, а безопасность AI Guardium является его инструментом для обеспечения моделей искусственного интеллекта, данных и использования.

«Агенты искусственного интеллекта должны революционизировать производительность предприятия, но сами преимущества агентов искусственного интеллекта также могут представлять собой задачу», — сказала в заявлении Ритика Гуннар, генерального директора IBM по данным и ИИ. «Когда эти автономные системы не являются должным образом управляются или не защищены, они могут нести серьезные последствия».

The Shadow AI Challenge

Как и его предшественник, Shadow IT, Shadow AI включает в себя карманы неразливанного использования технологий внутри организации — в данном случае, системы ИИ. Это представляет собой растущую проблему, поскольку инструменты искусственного интеллекта становятся более доступными, и теперь сотрудники могут создавать автономные системы с минимальной технической экспертизой.

Масштаб проблемы

Недавние исследования Man ManageEngine Zoho показывают, что 60% сотрудников используют неутвержденные инструменты ИИ больше, чем год назад, и 93% признают, что ввод информации в инструменты искусственного интеллекта без одобрения. Кроме того, 32% сотрудников ввели конфиденциальные данные клиента в инструменты искусственного интеллекта, не подтверждая одобрение компании, в то время как 37% ввели частные, внутренние данные компании, говорится в отчете.

Существует также разрыв между ИТ-лидерством и сотрудниками, так как 97% лиц, принимающих решения в области ИТ, видят значительные риски в теневом ИИ, но 91% опрошенных сотрудников заявили, что они не воспринимают риск, небольшой риск или считают, что любой риск перевешивается вознаграждением.

Почему теневой ИИ отличается

«Агенты — самая горячая вещь, и я думаю, что агенты больше находятся в пределах охвата сотрудников, чем даже генеративного искусственного искусства [GenAI] был, — сказал Джентиле. — У них есть возможность строить агентов всего за несколько дней через бизнес -приложения, такие как Salesforce или Workday ».

Эта доступность отличает AI Shadow от традиционной тени. В то время как Shadow IT, как правило, вовлекает сотрудников, использующих несанкционированное программное обеспечение или услуги, Shadow AI позволяет им создавать системы, которые могут работать с минимальным человеческим надзором. Агенты по продажам, боты для обслуживания клиентов и инструменты анализа данных могут быстро развернуться с помощью знакомых бизнес -приложений, часто без ИТ -департаментов даже зная, что они существуют, отметил джентиле.

Автономный характер агентов ИИ усиливает риск. В отличие от традиционного программного обеспечения, которое требует прямых человеческих вводов, агенты искусственного интеллекта могут принимать решения, обрабатывать данные и действовать независимо. Когда эти системы работают вне структуры управления, они могут создавать слепые пятна, которые могут иметь далеко идущие последствия.

Майк Гуалтьери, аналитик Forrester Research, сказал, что предприятия должны быть обеспокоены теневым ИИ, потому что «иногда, невольно, сотрудник или команда могут использовать приложение, в котором есть модель ИИ, встроенная в его функциональность. Ему потребуются недифферы ИИ, чтобы выяснить, где LLMS. [large language models] прячутся (в тени) ».

Влияние на бизнес

Более того, организации оказывают давление с множественными углами. Исследования ManageEngine показывают, что 85% лиц, принимающих решения в ИТ-решениях, сообщают, что сотрудники принимают инструменты искусственного интеллекта быстрее, чем их ИТ-команды могут оценить их. Между тем, 53% говорят, что использование персональных устройств сотрудников для задач, связанных с ИИ, связанным с работой, создает слепые места безопасности.

Последствия являются реальными и измеримыми. ИТ-лица, принимающие решения, определяют утечку или воздействие данных как основной риск теневого ИИ, затрагивая 63% организаций. Дополнительные проблемы включают нарушение интеллектуальной собственности, нарушения соответствия и потенциал для систем ИИ принимать решения, которые противоречат политике или ценностям компании.

«Самая большая проблема — это конфиденциальность — отправка IP -адреса компании или персональные данные в систему ИИ, которая не имеет соответствующей защиты или юридических гарантий, вызовет проблемы», — заявил новый стек Дэвид Миттон, генеральный директор поставщика программного обеспечения для безопасности разработчиков Arcjet. «Большинство людей думают, что речь идет об обучении искусственного интеллекта по вашим личным данным, что, возможно, является частью этого, но реальная проблема заключается в следующей конфиденциальности.

Между тем, Лоуренс Хехт, директор по исследованиям New Stack, отметил: «Для предприятий самая большая проблема заключается в том, что бизнес -единицы (а не отдельные лица) начинают финансировать инструменты/услуги/программное обеспечение ИИ без предварительного ее. Если прошлое является прологом, то через год или два будут вынуждены интегрировать новую технологию в существующий стек, который может быть большим головным головным годом».

Задача обнаружения

Определение теневого ИИ требует новых подходов. Традиционные инструменты мониторинга ИТ не были предназначены для обнаружения агентов ИИ, которые могут быть встроены в бизнес -приложения или работают в облачных средах. Это привело к разработке специализированных возможностей обнаружения.

IBM ввела новые возможности для обеспечения безопасности AI Guardium благодаря сотрудничеству с Alltrue.AI, включая возможность обнаружить новые варианты использования ИИ в облачных средах, репозитории кодов и встроенных систем, обеспечивая широкую видимость и защиту во все более децентрализованной экосистеме ИИ, сообщила компания. После идентификации безопасность AI IBM Guardium может автоматически вызвать соответствующие рабочие процессы управления от Watsonx.governance.

«Мы обнаруживаем Shadow AI, похожий на его тень, поэтому, если ИИ не находится в реестре или инвентаре, обнаруживая бегущий ИИ», — сказал Джентиле в новой стеке. «Когда Shadow AI обнаруживается, его можно внести в нашу технологию управления, и мы можем согласовать его с вариантом использования, чтобы мы могли понять цель того, почему она работает».

Кроме того, недавние обновления IBM Guardium AI Security также включают в себя автоматизированную Red Teaming, чтобы помочь предприятиям обнаружить и исправлять уязвимости и неправильные возможности в рамках вариантов использования искусственного интеллекта. И чтобы помочь смягчить риски, такие как инъекция кода, конфиденциальное воздействие данных и утечка данных, инструмент позволяет пользователям определять пользовательские политики безопасности, которые анализируют как входные, так и выводные подсказки, сказал IBM. По словам Джентиле, эти функции доступны в безопасности IBM Guardium AI Security, и их интеграция с Watsonx.governance будет развернуться на протяжении оставшейся части этого года.

Интеграция поддерживает процессы пользователей для проверки стандартов соответствия в отношении 12 различных структур, включая ACT EU AI и ISO 42001.

«Будущее искусственного интеллекта зависит от того, насколько хорошо мы его защищаем сегодня. Внедрение безопасности с самого начала имеет важное значение для защиты данных, поддержки обязательств по соблюдению и укрепления прочного доверия», — говорится в заявлении Suja Viswesan, вице -президента по обеспечению безопасности и пребывания в IBM.

Запретите использование несанкционированного ИИ?

Решение не просто запретить несанкционированному использованию ИИ. Сотрудники обращаются к этим инструментам для законного повышения производительности, с обобщением примечаний или вызовов (55%), мозговой штурмы (55%) и анализом данных или отчетов (47%) — лучшие задачи, выполняемые с помощью Shadow AI, показало исследование ManageEngine.

«Shadow AI представляет как величайший риск управления, так и самую большую стратегическую возможность на предприятии», — сказал Рампракаш Рамамурти, директор по искусственному искусству в ManageEngine, в своем заявлении. «Организации, которые будут процветать, — это те, которые рассматривают угрозы безопасности и переосмысливают Shadow AI как стратегический показатель подлинных потребностей бизнеса».

Ключом является создание комплексных рамок управления, которые могут масштабироваться с принятием искусственного интеллекта, как IBM, так и управления. Это должно включать в себя четкую политику и правоприменение, автоматическое обнаружение и интеграцию, образование сотрудников и технические инновации.

Превратить вызов в возможность

Организации должны перейти от реактивного обнаружения к проактивному управлению.

«ИТ -лидеры должны перейти от игры в защиту к активному построению прозрачных, совместных и безопасных экосистем ИИ, которые сотрудники чувствуют себя уполномоченными для использования», — сказал Рамамурти.

Этот подход включает в себя:

  • Интеграция утвержденных инструментов ИИ в стандартные рабочие процессы и бизнес-приложения (рекомендовано 63% лиц, принимающих решения в области ИТ).
  • Установление проверенных и утвержденных списков инструментов (рекомендация 55%).

«Я согласен с тем, что самая большая проблема заключается в том, что компаниям нужна четкая, принудительная политика», — сказал Хехт. «Большинство (91%) имеют политику управления ИИ, но менее половины говорят, что она постоянно соблюдается».

Дорога впереди

По мере того, как ИИ продолжает развиваться, Shadow AI, вероятно, станет более изощренным и труднее обнаружить. И появление агентского ИИ представляет следующую границу в этом вызове.

«Одной из самых больших проблем для групп безопасности является перевод инцидентов и нарушений соответствия требованиям в количественный бизнес -риск», — сказала в заявлении Дженнифер Гленн, директор исследований в области безопасности IDC Security and Trust. «Быстрое принятие ИИ и агентского ИИ усиливает эту проблему. Объединение управления ИИ с безопасностью ИИ дает организациям необходимый контекст для поиска и определения приоритетов рисков».

Между тем, Hecht нового стека отметил, что ManageEngine/Zoho Markets для малых и средних предприятий, «которые менее вероятно, чем крупные компании, которые предназначены для ИТ-персонала и политики, чтобы убедиться, что технологии привлечения вас не используются».

Более того, «[ManageEngine] Считайте, используя CHATGPT, недоумение и т. Д., В качестве несанкционированного использования. Представьте, что если использование поисковой системы Google неавторизовано. Это смешно, — сказал он. — Из главных рисков, выявленных ИТ -лидерами, только утечка данных и нарушение IP напрямую связаны с тем, о чем должны заботиться ИТ -лидеры ».

Как показывают усилия IBM и Man ManageEngine, цель состоит не в том, чтобы полностью устранить AI Shadow, а превратить его из скрытой ответственности в видимый, управляемый и стратегический актив.

Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Дэррил К. Тафт охватывает DevOps, инструменты разработки программного обеспечения и проблемы, связанные с разработчиком из своего офиса в районе Балтимора. Он имеет более чем 25 -летний опыт работы в бизнесе и всегда ищет следующий совок. Он работал … читайте больше от Дэррила К. Тафта

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *