Слишком поздно запретить вашим разработчикам воспользоваться генеративным ИИ. Они уже используют это.
И независимо от того, доказано ли это или нет, разработчики чувствуют себя более продуктивными с Genai.
После 2023 года осторожное принятие ИИ, новое исследование SYSDIG сообщило о росте на 500% в количестве рабочих нагрузок, работающих с ИИ и пакетами машинного обучения в 2024 году, причем количество пакетов Genai более чем удвоится.
Тем не менее, около трех лет после нынешнего движения Геная, менее 40% организаций имеют политику по смягчению генеративных рисков ИИ в области кибербезопасности, управления интеллектуальной собственностью и конфиденциальности, согласно исследованию McKinsey Global Institute, опубликованному в марте 2025 года.
Вчера вашей организации нужна была генеративная политика искусственного интеллекта. Его соблюдение, безопасность и репутация опираются на это.
На прошлой неделе в CTO Craft London Глин Робертс, технический директор Digital Solutions at Vention, провела аудиторию через то, как его агентство по аутсорсингу программного обеспечения с более чем 3000 инженеров работало вместе, чтобы разработать свою собственную политику генеративного искусственного интеллекта.
Каждая отрасль, организация и даже департамент будут иметь разные генеративные варианты использования ИИ и потребности, но читайте дальше, поскольку Робертс предлагает основу для создания собственной политики Genai.
Для начала: да, ваши разработчики используют Genai
В начале 2024 года Робертс сказал: «Меня спрашивали:« Нужно ли нам беспокоиться о том, что наши команды используют инструменты искусственного интеллекта? » Мой ответ был: «Нет.
В центре внимания уже была надежная классификация данных, информационную безопасность, конфиденциальность данных и политики веб -материалов, поэтому Робертс не беспокоился.
На следующей неделе на собраниях начал появляться суммализатор встречи Read.AI. Сначала это казалось удобным. Но в то время, чтобы прочитать сгенерированную стенограмму товарища по команде, вам пришлось установить инструмент. Как клиенты, так и коллеги начали его устанавливать, и вдруг на любом конференц -конференции появилось пять дополнительных участников ИИ, автоматически прослушивая.
По словам Робертса, это было трудно удалить, и когда он немного копал, он заметил, что в то время в том числе условия службы: в то время:
- Позволяя нераскрытым третьим лицам получить доступ к пользовательским данным, например, личная информация.
- Хранение информации пользователей и видео в течение двух лет.
Кроме того, Read имел и продолжает использовать лицензию для широкого использования, воспроизведения и анализа пользовательского контента.
Это внезапное изменение встречи не было единственным. По словам Робертса, с большим количеством носителей английского языка в его глобальной команде, они начали генерировать контент «улучшенного», в том числе для написания требований к проектам.
Тем не менее, он позже сказал новой стеке, в то время как «улучшенный» вывод начался очень хорошо: «После нескольких абзацев контент начал читать больше как история, которую вы рассказывали детям вокруг костра. Все еще актуально, но структура трансформировалась».
В частности, однако, внезапно потратили команды разработчиков меньше времени, чтобы выполнить те же задачи.
Робертс понял, что люди по всей организации уже использовали генеративный ИИ. Пришло время установить официальную политику ИИ.
Что уже используется?
Политика искусственного интеллекта будет конкретной для каждой организации. Прежде чем посмотреть в будущее, вероятно, лучше начать с того, что уже используют ваши коллеги.
Робертс начал опрос, спросил анонимно отделом:
- Какие инструменты искусственного интеллекта вы используете в настоящее время?
- Насколько вы верите, что понимаете ИИ?
- Как вы взволнованы в области искусственного интеллекта?
Не было неправильных ответов. Плюс, это не только внутренние инструменты. Как программное агентство, сотрудники Vention не просто используют Genai для себя; Они также используют все, что их клиенты хотят, чтобы они использовали.
Был широкий диапазон в количестве уникальных инструментов ИИ, выявленных на отдел:
- Доставка: 28
- Управление: 26
- Продажа: 18
- Маркетинг: 10
- Юридический: 4
- Операции: 3
Робертс был наиболее удивлен, что юридическая команда уже использовала четыре инструмента Genai, поскольку он считает их исключительно склонными к риску. Chatgpt и Grammarly широко использовались в разных отделениях.
Он также обнаружил несколько генеративных инструментов искусственного интеллекта, которые в то время не были так известны в штаб-квартире Северной Америки и Европы. Например, Kling AI был популярен среди разработчиков в Узбекистане, прежде чем он стал более известным в сша или Великобритании
Опрос также показал, что чем больше коллег считают, что они понимают ИИ, тем более энтузиазмом они должны были принять и использовать его.
Каковы бизнес -приоритеты?
Как только вы узнаете, что уже используется, проясните свои приоритеты как бизнес.
Робертс создал межфункциональную команду, которая представляла шесть основных департаментов Vention в каждом из 12 мест в стране. Вместе эта команда определила три генеративных приоритета ИИ:
- Поймите, что происходит с его данными, особенно через границы.
- Понимайте риски, в том числе общее доверие и соблюдение таких рег, что Общее правила защиты данных Европейского Союза (GDPR) и Закон сша о мобильности и подотчетности сша (HIPAA).
- Оставаться инновационными.
Глобальная межфункциональная группа по политике искусственного интеллекта в Vention рассмотрела каждый инструмент против этих трех организационных приоритетов. Затем, помимо этих генеративных инструментов ИИ, было рассмотрено, что ИИ добавляется в каждый используемый продукт, в том числе по всему Microsoft 365, который в значительной степени используется его клиенты, а также изнутри, фигура и понятия.
«С этой гонкой ИИ наши данные теперь использовались для большего количества вещей. Все [Software as a Service] Продукты, которые мы используем, используют AI просто автоматически, так что есть воздействие высокого риска,-сказал Робертс.-Просто потому, что вы одобрили инструмент третий [or] Четыре года назад как отличный для бизнеса, как был добавлен ИИ, вам необходимо пересмотреть то, что сейчас оказывает влияние на то, как они используют эти данные.
«Так много инструментов тихо интегрируют ИИ — я называю его, и, очевидно, данные, которые у вас есть, могут быть очень чувствительными».
Робертс утверждает, что генеративная политика искусственного интеллекта должна рассмотреть:
- Чего вы хотите достичь.
- Любые инструменты, которые используются, подходят и утверждены.
- Юридические и требования к безопасности.
- БЕСПЛАТНЫЕ ПАКЕТЫ ПРЕДОСТАВЛЕНИЯ.
«Очевидно, что если это бесплатно, вы не платите за продукт», — сказал он. «Вы — продукт, поэтому не ожидайте реальной безопасности или конфиденциальности вокруг этого».
Эта команда собирается пару раз в год, чтобы обновить политику искусственного интеллекта, рассмотреть и утвердить новые инструменты, разрабатывать и документировать планы обучения, а также внести свой вклад в базу знаний по всей компании.
Следуйте данным
Варианты использования ИИ включены в политику, всегда разъясняя использование данных.
- Публичные данные: Информация, которая общедоступна и не конфиденциальна, может использоваться как с неутвержденными, так и с утвержденными инструментами ИИ.
- Частные данные: Информация об активах, контактная информация, системы систем и схемы базы данных считаются конфиденциальными и разрешают использоваться с утвержденными инструментами. Тем не менее, им не разрешается использовать с неутвержденными инструментами.
- Ограниченные данныеТочно так же бизнес -стратегия и данные интеллектуальной собственности разрешаются использовать только в инструментах AI в утвержденном списке.
- Данные клиента: Включая исходный код, данные инструмента безопасности и документацию клиента, эти типы данных разрешаются использовать только в инструментах AI, утвержденном клиентом. Клиенты также могут предоставить лицензирование для использования своих собственных инструментов искусственного интеллекта.
В настоящее время клиенты все чаще запрашивают политику использования ИИ.
Международная организация по новейшим стандартам стандартизации является хорошим местом для начала любого рассмотрения политики искусственного интеллекта.
- ISO 42001: Управление ИИ и управление рисками
- ISO 27001: Информационная безопасность
- ISO 27701: Управление конфиденциальностью
- ISO 37301: Соблюдение и этическую культуру
Какими бы ни были ваши ограничения или мощности ИИ, убедитесь, что вы сообщаете о своей политике в своей организации. И подчеркните, что ИИ не заменяет человеческий интеллект.
Робертс сказал, что он и его команда четко общались, независимо от того, какой инструмент или какой отдел используется, простое сообщение: «Вы все еще несете ответственность за вывод. Вы все еще несете ответственность за результат».
Он пояснил: «Да, вы можете использовать ИИ с границами на месте, но вы не можете сказать:« О, результат был ужасным. ИИ сделал это ».
Сохраняйте свою политику ИИ в текущей и практической
Индустрия и инструмент для искусственного интеллекта развиваются так быстро, что любая политика искусственного интеллекта подвергается риску прийти к устарену, как только она согласится.
«Здорово иметь этот документ уже на месте, но его ограничения заключаются в том, что он фиксирован. Вы не меняете его регулярно», — сказал Робертс, поэтому агентству потребовалось более обновленные варианты для внутреннего использования, помимо Legalese из более жесткой политики ИИ.
«Поскольку в отрасли все так быстро меняется, мы должны быть более конкретными в случаях использования того, как на самом деле сделать это и использовать инструменты ИИ. Мы сгенерировали примеры использования ИИ для всех ролей, отдельных людей».
Они могут меняться чаще, поэтому это обновление не является частью внешней политики ИИ, общей с клиентами, а скорее включено в базу общей организационной знаний. Для каждого инструмента в этой базе знаний, доступных для поиска, есть варианты использования ИИ.
«Очевидно, что если это бесплатно, вы не платите за продукт. Вы — продукт, поэтому не ожидайте реальной безопасности или конфиденциальности вокруг этого».
— Глин Робертс, Vention
Например, ИИ для генерации и настройки исходного кода, тестовых случаев и любых других артефактов разрешено как в утвержденных, так и в нехватках только после письменного согласия от клиента или если клиент предоставил соответствующую лицензию.
С другой стороны, ИИ запрещено использовать по всем направлениям — либо в утвержденных, либо неутвержденных инструментах — для любого шорт -листа, суммирования или обработки резюме или в решениях о найме.
«Легко взглянуть на то, что делать каждый раз, когда новый сотрудник говорит:« Я не знаю, как это достичь », — сказал Робертс. «Основываясь на политике, мы можем затем добавить его в список и привести еще один пример того, как его использовать».
Какими бы ни были ваши варианты использования искусственного интеллекта, они не должны сдерживать ваших разработчиков. Тормоза на машине позволяет ему идти быстрее, Робертс напомнил зрителям. И если вы не предоставите своим сотрудникам эти инструменты искусственного интеллекта, вы, вероятно, увеличиваете свой риск — либо вы теряете свой талант, либо используют инструменты, стоящие за вашей спиной.
«Если это не определено, ваши сотрудники будут определить его для вас, и то, что они считают приемлемым, может быть не приемлемым вообще, потенциально, по вашему мнению», — подчеркнул Робертс, чтобы закрыть свой разговор. «Вот почему там должна быть форма политики ИИ».
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Дженнифер Риггинс — культурная сторона технического рассказчика, журналиста, писателя и ведущего событий и подкастов, помогающих поделиться историями, где сталкиваются культура и технологии и перевести влияние технологий, которую мы строим. Она была … читайте больше от Дженнифер Риггинс