Табнин спонсировал этот пост.
Для большинства команд программного обеспечения интеграция инструментов искусственного интеллекта, таких как Code Assistants, так же просто, как подписаться на сервис и добавление расширения. Вы получаете мгновенный доступ к мощным моделям, и с каждым нажатым нажатием вы используете обширный, облачный мозг.
Но что, если ваша задача — создать программное обеспечение, которое управляет спутником, управляет силовой сеткой или направляет истребитель? Для этих команд — и других в обороне, аэрокосмической, правительственной и сильно регулируемой отрасли — эта легкая интеграция не вариант. Их работа происходит в среде, которые полностью отрезаны от общедоступного Интернета, мера безопасности, известной как «воздушное разрыв».
Идея «Ай-авиации с воздухом» может звучать как парадокс. Как у вас может быть инструмент, который учится и развивается с облаком, но живет в крепости? Это вопрос, который становится в основе того, что означают реальная безопасность и соответствие в эпоху ИИ. Это проблема, которая выходит далеко за рамки просто блокировки подключения к Интернету.
Что на самом деле означает «воздушный разрыв» для искусственного интеллекта
Закаленный воздухом означает систему, которая физически или логически изолирована от внешних сетей, и все вычисления и обновления должны оставаться в пределах контролируемого периметра. Но дьявол часто в деталях. Для инструмента ИИ это только начало. Изоляция должна быть абсолютной. Многие инструменты, утверждающие, что являются «локальными» или «частными», все еще отправляют телеметрию, получают обновления или полагаются на внешний вывод.
Представьте себе помощника кода, который обещает запустить «локальные». Вы можете предположить, что это означает, что он полностью содержится в вашей безопасной сети. Тем не менее, многие из этих инструментов по -прежнему имеют функцию «телефона дома» — вызов на удаленном сервере для обновлений, проверку на новые функции или просто для того, чтобы отправить немного анонимных данных об использовании. Даже это, казалось бы, доброкачественное исходящее соединение является нарушителем сделки для действительно безопасной среды.
Для того, чтобы помощник кода был по -настоящему разбитым воздухом, он должен соответствовать другому набору стандартов:
- Нулевые внешние зависимости: Он не может сделать какие -либо внешние вызовы API или полагаться на облачные сервисы для чего -либо — вывод, аутентификация или телеметрия. Каждая операция, от генерации фрагмента кода до предоставления контекстного предложения, должна произойти в вашей безопасной сети.
- Замороженные, осмотренные модели: В облаке модели постоянно обновляются за кулисами. В воздушном мире это не стартарный. Вам нужна модель, закрепленная версией, чье поведение является предсказуемым, прозрачным и воспроизводимым. Если аудитор спрашивает, почему был сгенерирован кусок кода, вам необходимо иметь возможность указывать на конкретную, проверенную версию модели.
- Только локальный контекст: База знаний ИИ не может включать что -либо от внешнего мира. Он должен полагаться исключительно на ваши локальные репозитории, файлы проектов и внутренние базы знаний, чтобы предоставить предложения.
- Полная проверка: Каждое взаимодействие — подсказка, сгенерированный код, используемая модель -версия — должно быть зарегистрировано и сохранено локально. Это не просто функция «приятной»; Это основа для соблюдения и отслеживания в критических системах.
Общие ловушки «безопасных» инструментов ИИ
Многие инструменты ИИ утверждают, что являются «безопасными» или «локальными», но проваливают испытание с воздушным вызовом. Правда в том, что эти инструменты часто были созданы для мира, где предполагается некоторая степень внешней связи.
Наиболее частые ошибки включают:
- Подлые исходящие соединения: Некоторые инструменты отправляют фрагменты кода или контекста проекта из безопасного периметра — даже если они зашифрованы — для выполнения вывода или сбора данных. В настройке воздуха любое исходящее соединение, независимо от того, насколько мало, является нарушением безопасности.
- Автоматические, невидимые обновления: Поставщик, выдвигающий обновление молчаливой модели или изменение основных учебных данных, может ввести непредсказуемое поведение. Этот вид «модели дрифта» является кошмаром для команд, которым необходимо сертифицировать и воспроизводить каждую строку кода.
- Отсутствие происхождения: Когда ИИ предлагает решение, не объясняя его происхождение, становится невозможным подтвердить в критичной безопасности. Откуда взялся этот фрагмент кода? Было ли это из публичного хранилища, набора данных обучающих данных или чего -то еще? Без этого прослеживаемого происхождения это предложение бесполезно для сертифицированной системы.
- Игнорирование нишевых языков: Большинство помощников по ИИ обучаются на языках веб -разработки, таких как Python или JavaScript. Но как насчет языков критически важных систем, таких как ADA, VHDL или Spark? Многие инструменты ИИ просто не имеют знаний или проверки для работы в этих специализированных доменах.
Реалии развертывания воздушного искусственного искусства
Перемещение инструмента ИИ в изолированную среду является серьезным начинанием. Речь идет не только о установке программного обеспечения; Речь идет о создании новой архитектуры и набора эксплуатационных процессов.
Организации должны создать несколько основных возможностей:
- Истинное локальное исполнение: Вся модель искусственного интеллекта должна работать на утвержденном оборудовании в вашей сети. Не может быть скрытого «запасного» в облачном сервисе, если локальный вывод не удастся.
- Управление версиями для моделей: Вам нужна возможность вручную обновлять модели и блокировать их до определенной версии. Это дает вам полный контроль над тем, что используется, и гарантирует, что вы можете воспроизводить любые прошлые результаты.
- Строгая регистрация и аудит: Каждое взаимодействие должно регистрироваться с помощью временной метки, идентификации пользователя и модельной версии. Эти данные являются основой ваших усилий по безопасности и соответствию.
- Интеграция с безопасными трубопроводами: Инструмент ИИ должен легко вписаться в существующие безопасные DevOps и CI/CD. Он должен работать с вашим элементом управления доступом, системами сборки и просмотра процессов.
Конечно, этот уровень контроля поставляется с компромиссами. Запуск большой языковой модели на сайте требует значительного оборудования, а отсутствие живого соединения означает, что вам понадобится строгий процесс для ручных обновлений. Возможно, вам также придется принять другой вид производительности — локальная модель может иметь более высокую задержку или немного более низкое качество, чем один, работающий на огромном облачном сервере.
В конечном счете, воздушные инструменты искусственного интеллекта не о разрезании углов. Они являются необходимостью для секторов, где безопасность, суверенитет и соответствие не подлежат обсуждению. Для этих команд предсказуемость и контроль, предлагаемые действительно изолированным инструментом, стоят дополнительной сложности.
Наша цель в Tabnine-создать и предоставить и доставлять рабочий процесс разработки с AVEPOM-ASISTOM, который дает возможность всем создателям кода, на всех языках, от концепции до завершения. Узнайте больше последних из Tabnine Trending Stories YouTube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Крис дю Тот является главным директором по маркетингу в Tabnine, где он управляет стратегией на рынке и позиционированием для платформы AI-ассистента, работающей на двигателе AI. Подробнее от Криса дю -Тота