ИИ переживает самую быструю кривую принятия предприятия в истории технологий — использование растет, бюджеты умножаются, а варианты использования расширяются от генеративного ИИ (Genai) до полностью автономных агентских систем. Но есть улов: большинство приложений для ИИ никогда не добираются до производства.
Основная проблема — это производительность модели, инфраструктура или даже стоимость — это данные. В частности, безопасность данных и конфиденциальность неоднократно упоминаются как блокаторы. Без надежных динамических контролей доступа, Genai Systems Risk утекает конфиденциальные данные и внедрение уязвимостей безопасности, которые могут нанести репутационный ущерб, конкурентные убытки и юридическое воздействие.
В этой статье исследуется рост Геная, почему так много инициатив останавливаются, и как разрешение в качестве услуги может помочь инженерным группам быстрее отправлять заявки на ИИ без ущерба для безопасности или контроля.
Самая быстрая рампа? Скорость, сдвиг и потратить на числа
Индекс AI в Стэнфордском университете 2025 года показывает, что ускорение принятия ускоряется с 78% организаций, использующих ИИ в 2024 году, по сравнению с 55% годом ранее. Индекс корпоративного облака Nutanix 2025 года обнаружил, что более 80% организаций уже реализовали стратегию Genai.
Усыновление соответствует инвестициям. Menlo Ventures сообщает, что расходы на предприятие Genai выросли на 6x в 2024 году за предыдущие 12 месяцев. Расходы как доля общего ИТ -бюджета только увеличивается:
- Бостонская консалтинговая группа прогнозирует бюджеты Genai, выросшие на 60% в течение следующих трех лет.
- Gartner прогнозирует 3 триллиона долларов на предприятия на ИИ в период с 2023 по 2027 год. Его исследования также предсказывают, что «в течение нескольких лет организации покупателей будут тратить больше денег на программное обеспечение с функциями Genai, чем на программное обеспечение без них».
Поместив эти прогнозы в контекст, очень немногие предприятия даже слышали о Genai до того, как Openai выпустил CHATGPT в качестве предварительного просмотра исследования в ноябре 2022 года, не говоря уже о распределении бюджета.
Что происходит, когда ИИ перестает спрашивать и начинает действовать?
Сегодня в центре трех лучших вариантов использования в Центре создания контента, автоматизации поддержки клиентов или сотрудников и разработки программного обеспечения. Однако как CIO.com Государства, это только «кончик айсберга».
Опираясь на Genai, мы сейчас видим значительное внимание к агентскому ИИ-автономные системы LLM, способные принимать решения и выполнять задачи без постоянного человека. Концепция агента AI выходит за рамки традиционной регламентированной автоматизации, позволяя системам понимать контекст, адаптироваться к новой информации и внешних событиям, часто (но теперь всегда) сотрудничает с «человеком в цикле» для решения сложных проблем. Рассмотрите возможность автоматизации бизнес -процессов, таких как управление цепочками поставок, юридическое обнаружение, доходность бухгалтерского учета, проекты инженерных и дизайна, исследования и стратегическое планирование и многие другие.
По мере того, как модели растут в сложности, и LLMS, специфичные для домена, становятся более доступными, действия, которые когда-то были исключительной кончиной человеческого познания и решения проблем, дополняются (и нарушаются?) Рассмотрим исследование Стэнфордского университета, упомянутое ранее. Он обнаружил:
Очевидный вывод, который мы можем сделать из всего этого, заключается в том, что по мере того, как LLM становятся более способными, а затраты падают, так как изобилие и широта вариантов использования ИИ будут только расширяться.
Почему проекты Genai не могут производить производство?
Усыновление растет, варианты использования расширяются, а деньги течет.
Так почему же, согласно недавнему опросу Informatica, только 38% проектов искусственного интеллекта превращают его в производство? Обследование от DataIku рисует еще более мрачную картину, когда только 20% приложений Genai, разработанные предприятиями, в настоящее время находящимися в настоящее время. Gartner предсказает, что 30% проектов Genai будут заброшены после доказательства концепции к концу 2025 года.
Почему это? В нескольких опросах мы видим аналогичные выводы — все дело в данных:
- Обследование Nutanix показало, что конфиденциальность и безопасность данных и безопасность были наиболее важным аспектом реализации Genai. 95% респондентов заявили, что конфиденциальность является приоритетом, и тот же процент признал, что их организация может сделать больше для обеспечения моделей и приложений Genai.
- Опрос Yougov для Bigid показал, что более двух третей организаций оценивают риски безопасности данных, поскольку их главная проблема с искусственным интеллектом в том, что 50% считают его главной проблемой во время реализации.
- 77% респондентов исследования в исследовании DataIku определяют, что их самые большие опасения ИИ — отсутствие управления и контроля использования.
На ранней стадии любой новой волны внедрения технологий опасения, связанные с безопасностью и конфиденциальностью, часто оказываются преувеличенными или смягчаются новыми элементами управления и дизайна. Это не тот случай с Gen AI. На самом деле наоборот. Опасения по поводу конфиденциальности данных растут как больше проектов вблизи готовности к производству. Отчет Deloitte показал, что в 2023 году только 22% специалистов в области технических технологий оценили его среди трех лучших проблем. В 2024 году эта цифра выросла более чем в три раза до 72%.
Когда ИИ знает слишком много и скрытая угроза внутри вашего стека ИИ
Давайте проясним, что проблемы с безопасностью данных и конфиденциальностью в ИИ не являются гипотетическими. В начале 2023 года Samsung запретил Chatgpt после того, как инженер непреднамеренно просочился конфиденциальным внутренним исходным кодом, отправив его в подсказке. Это не был изолированный случай — BIGID сообщает, что почти 50% организаций уже испытали неблагоприятные результаты в бизнесе от использования ИИ, включая утечки данных.
LLM вводят реальный риск, когда доступ к данным не контролируется правильно. Модели, обученные и настраиваемые на внутренние данные или используемые в рабочих процессах получения добычей извлечения (RAG), могут раскрывать личную информацию (PII), интеллектуальную собственность (IP) или конфиденциальную информацию в их результатах. Это особенно связано с приложениями, ориентированными на клиента или внутренних инструментах, где модель имеет доступ к конфиденциальным или регулируемым данным. Чат -боты ИИ могут непреднамеренно вскрывать внутренние записи, контракты, цены или историю поддержки. Инструменты поиска предприятия могут выявить финансовые или стратегические планы для несанкционированных пользователей.
Риски усиливаются в разработке программного обеспечения. Помощники по кодированию ИИ могут утечь запатентованный код или внедрить уязвимости, особенно если они сохраняют контекст в разных сессиях или не имеют надлежащего песочницы. В некоторых случаях состязательные подсказки могут преднамеренно извлекать чувствительный контент, превращая полезные инструменты в потенциальные векторы нарушения.
Последствия являются серьезными: регулирующие штрафы, конкурентный риск, ущерб репутации и юридическое воздействие.
Только путем обеспечения устойчивых элементов управления доступа LLM, защищенных модельных архитектур и строгих политик управления данными, предприятия будут успешными в масштабировании процента приложений ИИ, которые добираются до производства.
Исправить проблему разрешений и разблокировать потенциал ИИ
Авторизация является основополагающим для любого программного приложения — оно управляет, кто может получить доступ к тому, какие данные выполняют конкретные действия и взаимодействуют с различными частями системы, что делает его важным как для функциональности, так и для безопасности.
Ставки еще выше в Genai и агентских системах ИИ. Эти приложения часто работают автономно, взаимодействуют с конфиденциальными данными и вызывают действия вниз по течению. Это делает мелкозернистое, динамическое разрешение критическим, чтобы предотвратить непреднамеренное поведение, утечку данных или злонамеренное неправильное использование.
- «Я не хочу быть тем, кто вызывает утечку данных».
- «Я думал, что внедряю тряпку, а не разрабатываю систему авторизации».
- «Если я не смогу подключить свой LLM к данным моего клиента, никто не будет использовать мой чат -бот».
- «Моя команда безопасности помешает мне вставить мое агентское приложение ИИ в производство».
Здесь, в OSO, мы слышали о проблемах, вышеупомянутых многих инженерных команд. Поскольку они борются с тем, как создать управление доступа LLM, последовательно выделяется одна задача: обеспечение того, чтобы генеративные и агентские приложения ИИ делятся только информацией с пользователями, уполномоченными ее увидеть.
Как практическое руководство, которое поможет каждому разрабатывать приложения ИИ, мы собрали учебник, который входит в создание авторизованного чат -бота LLM с Oso Cloud. Он направляет инженеров посредством интеграции мелкозернистой авторизации в чат-бот, который использует внутренние документы в качестве контекста, обеспечивая доступ к пользователям только информацию, которую они могут увидеть.
Учебное пособие охватывает настройку векторной базы данных, создание встроенных и ответов с OpenAI и обеспечение управления доступа с облаком OSO. В сопровождении полного демонстрационного приложения с рабочим кодом, инженеры могут клонировать репозиторий и немедленно начать создавать свои безопасные, контекстные чат-боты.
Рисунок 1: Поток данных в типичной тряпичной архитектуре в агентском приложении ИИ
От разрешения, который замедляется до авторизации, которая течет
Productboard-это платформа управления продуктами, ориентированную на клиента, которая позволяет организациям быстрее выставлять правильные продукты на рынок. По мере того, как он расширился от обслуживания малых и средних предприятий до взаимодействия с крупными предприятиями, Productboard столкнулся с проблемами авторизации.
Компания обратилась к OSO, чтобы помочь ей удовлетворить новые требования предприятия, такие как более детальные и настраиваемые элементы управления доступом, разрешения на уровне поля и управление доступом в сложных вложенных структурах данных. Кроме того, когда компания перешла на архитектуру микросервисов, OSO упростила, как разрешения постоянно применялись в распределенных системах. Productboard в партнерстве с OSO для экспертной поддержки посредством миграции, разработки политики и интеграции искусственного интеллекта
Поскольку Productboard внедрила возможности с AI с помощью своей новой платформы Productboard Pulse, наличие надежного фонда авторизации оказалась критической.
Productboard Pulse Aggregates отзывы клиентов из таких инструментов, как поддержка, CRM и аналитика в единый вид, позволяя командам выяснять понимание через запросы естественного языка. Он использует архитектуру поколения в поисках, для обогащения подсказок LLM с контекстными данными, но только данные разрешены только для каждого пользователя. OSO играет центральную роль в этом рабочем процессе, обеспечивая мелкозернистые, динамические элементы управления доступа, которые обеспечивают доступную обратную связь только для нужных пользователей. Используя OSO, ускорила разработку Productboard, избегала дорогостоящей переосмысления логики разрешений и обеспечил безопасный, масштабируемый доступ между распределенными источниками данных, что позволило им быстро и уверенно предоставлять функции искусственного интеллекта.
Как заявил один из ведущих инженеров компании в проекте:
«OSO сделала импульс Building Productboard намного быстрее, поскольку каждый API может просто позвонить OSO, чтобы выяснить, что разрешено, независимо от того, где проживают данные. Строившись на вершине проверенного фонда авторизации, мы избежали самых больших препятствий, разбивающих усилия по ИИ во многих компаниях».
Вы можете прочитать Full Productboard и тематическое исследование OSO, чтобы узнать больше.
Куда мы идем отсюда?
Волна ИИ здесь, и она движется быстро. Но превращение этого импульса в реальную бизнес -ценность зависит от не только моделей и графических процессоров. Без мелкозернистого, гибкого авторизации проекты искусственного интеллекта задерживаются на этапе подтверждения концепции или, что еще хуже, подвергают вашу организацию утечкам данных, рискам безопасности и неудачам соответствия. Не забудьте рассмотреть решения авторизации как решения, чтобы помочь удалить элементы управления доступа в качестве блокировщика для доставки ваших приложений для ИИ.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Mat Heat, старший директор по маркетингу продуктов для MongoDB, является высокопроизводительным исполнительным директором по маркетингу и управлению продуктами с опытом в разработке и обеспечении высокого роста внедрения продуктов и стратегий выхода на рынок. Он сосредоточен на создании открытых предприятий … Подробнее о Mat Keep