Теневой ИИ: растущие риски, на которые должны обратить внимание ИТ-лидеры

Пока существовали ограждения, были люди, пытающиеся найти пути их обхода, от Эдемского сада до того парня из финансового отдела, который загружал модели открытого веса с Hugging Face.

Пока существовали ИТ, существовали теневые ИТ — явление, при котором сотрудники используют сторонние технологии без одобрения или контроля со стороны ИТ. Некоторая степень теневых ИТ, конечно, неизбежна. К сожалению, с появлением искусственного интеллекта риски резко возросли.

Вот что ИТ-руководителям необходимо знать о теневом ИИ и о том, как подготовить свои компании к безопасному и надежному использованию ИИ в будущем. Чтобы получить обоснованное представление об этих тенденциях, загрузите отчет Anaconda «Состояние науки о данных и искусственного интеллекта» за 2025 год.

От теневых ИТ к теневому ИИ

По своей природе ИТ находятся под строгим контролем. От этого зависит кибербезопасность нашей компании.

Каждый день менеджеры идут по канату, стремясь предоставить сотрудникам самые лучшие инструменты, не рискуя при этом компанией и не выходя за рамки бюджета. Они делают все возможное, чтобы опережать новые технологии и запросы, чтобы обеспечить реальную потребность бизнеса и соответствие любой новой технологии существующей политике. Чем более регулируема отрасль – финансы, здравоохранение, государственный сектор и т. д. – тем больше шагов требуется для внедрения чего-то нового.

Это сфера деятельности ИТ-специалистов, и она невероятно важна, но для остальной части компании они — привратники, скептики, мешающие всем быстрее завершить свою работу с помощью новейших технологий. ИТ-специалисты не любят говорить «нет», но именно они управляют хаосом существующих систем, регулярными обновлениями и новыми технологиями, обеспечивая при этом безопасность компании.

Тем не менее, остальная часть бизнеса находится на своем канате. У каждого отдела есть срочные сроки, бюджеты и задания, которые необходимо выполнить, поэтому для сотрудников вполне естественно обходить стандартный протокол и внедрять технологии за пределами утвержденных сетей, устройств и учетных записей, что приводит к риску выхода из-под контроля. Иногда, чем жестче контроль, тем дальше сотрудники выходят за рамки дозволенного, чтобы добиться цели.

Как мы сюда попали?

Пока существовала концепция ИТ, существовали теневые ИТ, чтобы обойти ее. Еще в начале 80-х годов, когда работодатели платили только за большие мэйнфреймы, сотрудники BankAmerica Corp. покупали новые компьютеры, тратя их на канцелярские товары.

По мере развития персональных компьютеров и Интернета росла и тень ИТ. Следующий большой сдвиг произошел с облачными вычислениями, когда риски и затраты на теневые ИТ резко возросли. Внезапно любой, у кого есть корпоративная кредитная карта, смог купить незащищенную, неконтролируемую инфраструктуру, подключенную к Интернету.

Перенесемся еще на 20 лет вперед, и ИТ-специалисты в основном освоили BYOD (принеси свое собственное устройство), облачные вычисления и веб-сервисы. Однако генеративный ИИ создает новый фактор риска: теневой ИИ.

Как и в прошлом персональные компьютеры, Интернет и облачные вычисления, ИИ предлагает огромный потенциал для повышения эффективности и инноваций в бизнесе. Тем не менее, он развивается быстрее, чем ИТ-специалисты могут за ним поспевать.

Анализ 3 миллионов сотрудников, проведенный Cyberhaven в 2024 году, показал, что 73,8% учетных записей ChatGPT на рабочих местах были личными, а не корпоративными. Это означает, что три из каждых четырех взаимодействий ИИ происходят там, где ИТ-команды их не видят.

Ожидается, что использование теневых ИТ будет только возрастать. Недавнее расследование VentureBeat показало, что к середине 2026 года теневые приложения искусственного интеллекта могут увеличиться более чем вдвое.

Почему большие языковые модели (LLM) и агенты искусственного интеллекта настолько отличаются от прошлых технологий? В некотором смысле это не так. У вас есть быстро развивающиеся инструменты, находящиеся вне вашего контроля, которые подвергают вас нарушениям безопасности, утечкам данных и IP-адресов, а также плохому контролю затрат. Отличие заключается в широкой применимости инструментов ИИ. Возьмем, к примеру, облачные вычисления. Это была невероятная технология, но создание облачной инфраструктуры требовало технических знаний и достаточно технической проблемы, которую облако могло решить. Там был барьер для входа. С такими LLM, как Claude и ChatGPT, единственными препятствиями для использования ИИ являются веб-браузер и вопрос. LLM могут и используются на всех должностях в компании.

Затем происходит стирание границ между работой и личной жизнью. Громоздкие компьютеры в 80-х годах были перенесены в офис. Облачная инфраструктура не особенно подходила для жизни большинства людей вне работы. Инструменты диалогового искусственного интеллекта живут в наших карманах. Мы используем их вне работы так же часто, как и в офисе. Еще более тревожно то, что многие из наших личных устройств имеют доступ к данным и серверам компании.

Риски теневого ИИ

Риски реальны, если вы не опередите их. Прежде чем мы перейдем к тому, как бороться с теневым ИИ в вашей организации, давайте кратко рассмотрим профиль рисков.

Раскрытие данных

Это самый большой. Когда вы работаете с определенными LLM, вы рискуете отправить данные, на которых эти модели могут обучаться. Это означает, что конфиденциальные данные компаний или клиентов могут оказаться в этом первозданном виде ИИ, который может всплывать позже неконтролируемым образом. Это может быть особенно верно в отношении бесплатных услуг искусственного интеллекта, которые многие пользователи могут выбрать за пределами офиса.

Галлюцинации

Используйте ИИ в течение любого периода времени, и вы, скорее всего, получите неверные или сфабрикованные ответы. Deloitte недавно частично возместила австралийскому правительству сумму в 290 000 долларов за отчет, полный фактических ошибок и сфабрикованных ссылок. Проблема в том, что сотрудники могут взять эту неверную информацию и отреагировать на нее или внедрить вредоносный код в производство, не понимая, как и работает ли он.

Согласие

Новые мандаты Закона ЕС об искусственном интеллекте и любые будущие законы вступят в силу в течение следующих нескольких лет. Компаниям необходимо будет обеспечить большую прозрачность, отслеживаемость и возможность аудита в своих системах искусственного интеллекта. Чем дольше компании откладывают внедрение более эффективного управления и большей прозрачности использования ИИ, тем выше риск несоблюдения требований.

Вредоносные модели и агенты

Модели и агенты из ненадежных источников могут неосознанно перекачивать данные злоумышленникам, предпринимать вредоносные действия от вашего имени и даже использоваться в качестве механизма доставки традиционного вредоносного программного обеспечения.

Кроме того, агенты состоят из множества различных инструментов и API, работающих согласованно, поэтому при изменении любой из этих внешних систем поведение агента также может измениться. Это уникальный риск, поскольку агенты ИИ могут действовать от имени сотрудника или организации.

Проливаем свет на теневой ИИ

Как вы, как ИТ-руководитель, справляетесь с этими растущими рисками и обеспечиваете, чтобы ваша организация использовала ИИ безопасно и ответственно? Одним из решений является абсолютистский подход. Запрещайте сотрудникам использовать или делать что-либо, связанное с искусственным интеллектом, но чем сложнее ваши средства контроля, тем более рискованные методы люди будут использовать, чтобы обойти их. Это бесконечная битва. Кроме того, мы говорим об инструменте трансформации, который имеет решающее значение для успеха пользователей. Вот лучший способ:

Предоставьте сотрудникам как можно больше взлетно-посадочной полосы

Лучшее эмпирическое правило — обеспечить максимально возможное санкционированное использование ИИ. Если вы предоставляете людям одобренные инструменты, например, доступ к корпоративным планам LLM, которые не обучаются на ваших данных, и утвержденный способ ведения дел, они, как правило, будут использовать это. Вы получите лучшее соблюдение требований и снизите риск того, что люди будут заниматься своими делами.

Создайте безопасное место для тестирования

В Anaconda есть песочница AWS, доступная каждому. Вы не можете развернуть код в производство, и песочница регулярно очищается, но это дает сотрудникам возможность тестировать, создавать прототипы и пробовать новые вещи в безопасной среде. Предоставьте сотрудникам аналогичную область, которая регулярно блокируется или удаляется, чтобы они могли безопасно пробовать что-то новое, будь то тестирование агентов ИИ, построение моделей или запуск нового кода.

Информируйте сотрудников о рисках

Самый большой риск теневого ИИ связан с недостаточной осведомленностью. Недостаточно сказать сотрудникам не использовать эту технологию определенным образом. Вы должны убедиться, что они знают о потенциальных последствиях своих действий, поэтому обучайте их, обучайте их и дайте им способы повысить свою грамотность в области искусственного интеллекта, которая является самым быстрорастущим востребованным навыком LinkedIn в 2025 году.

Блокируйте то, что вам нужно

Ограничьте доступ к тому, что просто слишком опасно, и предложите альтернативы, если это возможно. Хотя вы не хотите блокировать все подряд, вам потребуются определенные и четкие ограждения, и это нормально. На самом деле это необходимо. Секрет в том, чтобы найти правильный баланс.

Получите корпоративную поддержку

Наконец, иногда вам просто необходима помощь со стороны. Большинство организаций (92% согласно отчету Anaconda «Состояние науки о данных и искусственного интеллекта» за 2025 год) используют инструменты и модели искусственного интеллекта с открытым исходным кодом. Эти инструменты мощны и необходимы для инноваций, но важно понимать, как изменилось определение открытого исходного кода с появлением ИИ.

Раньше вы могли увидеть код любого программного обеспечения с открытым исходным кодом. Другими словами, вы можете просканировать его, посмотреть, как оно работает с точки зрения поведения, и определить, представляет ли это риск. При использовании ИИ данные обучения и процессы обучения не видны. Вы можете видеть только веса модели, миллиарды числовых параметров, которые недостаточно раскрывают то, как и почему модель ведет себя именно так.

В результате ваша организация должна научиться создавать правильные барьеры вокруг этих инструментов искусственного интеллекта с открытым исходным кодом. В таких случаях может помочь внешний партнер, специализирующийся на развертывании корпоративного искусственного интеллекта, чтобы защитить вашу среду и смягчить любые последующие последствия.

Превратите искусственный интеллект в стратегическое преимущество

ИИ здесь, чтобы остаться. ИТ-лидеры должны опережать ситуацию и внедрять инструменты искусственного интеллекта в средах и ситуациях с низкими ставками. Вы не хотите быть тем, кто сидел в стороне и ждал, пока ИИ станет полностью безопасным и надежным. Спустя годы вам придется создавать планы управления и внедрения ИИ с нуля, и вы будете намного отставать от своих конкурентов. Будущее уже здесь, и вам нужно, чтобы вы его возглавили.

ТЕНДЕНЦИОННЫЕ ИСТОРИИ YOUTUBE.COM/THENEWSTACK Технологии развиваются быстро, не пропустите ни одной серии. Подпишитесь на наш канал YouTube, чтобы смотреть все наши подкасты, интервью, демонстрации и многое другое. ПОДПИСАТЬСЯ Группа, созданная в Sketch. Стив Кроче — главный технический директор компании Anaconda, где он объединяет технические инновации с успехом клиентов для ведущей в мире платформы Python для искусственного интеллекта и обработки данных. Имея более чем 20-летний опыт работы в сфере высоких технологий, он сочетает в себе глубокие… Подробнее от Стива Кроче.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *