Как создать эффективную политику использования ИИ

Red Hat спонсировала этот пост.

Это отрывок из главы 2 «ИИ для предприятия: Руководство по разработке и масштабированию вашей стратегии ИИ», новой электронной книги известного технического журналиста Дженнифер Риггинс, спонсируемой Red Hat и Intel.

Эта бесплатная книга, доступная для скачивания, помогает руководителям предприятий создать стратегию ИИ для повышения производительности, решения ранее невозможных проблем и получения настоящего конкурентного преимущества: от преимуществ использования «двухскоростной» модели инвестиций в ИИ до измерения реального воздействия ИИ.

Большинству организаций еще вчера нужна была политика использования ИИ. Однако они есть только у половины.

«Сколько продуктов ИИ внедрил туда, полностью игнорируя основные болевые точки своих продуктов и платформ?» — спросила Ханна Фоксвелл, основательница организации «ИИ для остальных из нас». «Ваша стратегия ИИ должна быть основана на бизнесе сегодня, а не на какой-то фиктивной версии бизнеса завтра».

Чтобы разработать свою политику в области ИИ, создайте межфункциональную межорганизационную команду по внедрению ИИ — возможно, в новом офисе CAIO.

Стандарты ИИ Международной организации по стандартизации — хорошая отправная точка для рассмотрения вашей политики в области ИИ:

  • ISO/IEC 42001 – Управление ИИ и управление рисками: Устанавливает подотчетность и надзор, устанавливая протоколы управления рисками для выявления, доступа и смягчения потенциальных рисков и воздействий.
  • ISO 27001 – Информационная безопасность: Рекомендует инструменты, которые проверяют людей, процессы и технологии. Сюда входит расширение для управления конфиденциальностью.
  • ISO 37301 – Соблюдение требований и этическая культура: Определяет требования к системам управления соответствием, а также рекомендации по развитию культуры добросовестности, честности и справедливости при использовании ИИ.

Закон Европейского Союза об искусственном интеллекте предлагает еще один хороший способ классифицировать риски, связанные с инструментами искусственного интеллекта:

  • Неприемлемый ИИ: Включает в себя очистку Интернета или камер видеонаблюдения для создания баз данных распознавания лиц.
  • ИИ высокого риска: Включает любой искусственный интеллект для критически важной инфраструктуры и коммунальных услуг, образования и управления занятостью.
  • Модели ИИ общего назначения: Для систем искусственного интеллекта, которые по умолчанию прозрачны, что позволяет пользователям принимать обоснованные решения.

Эта категоризация может различаться для разных частей вашего бизнеса в зависимости от уровня принятия или предотвращения рисков.

Также разумно дать всем в вашей организации освежить знания о местных и международных правилах конфиденциальности данных, таких как GDPR ЕС и Калифорнийский закон о правах на конфиденциальность (CPRA). Простота использования и внедрения инструментов генеративного искусственного интеллекта (GenAI) уже привела к непреднамеренной утечке данных — вы не хотите быть следующим.

Сообщите о своей политике в области ИИ

Как только ваша команда по внедрению ИИ согласует политику использования ИИ, обязательно сообщите о ней всем заинтересованным сторонам внутри и за пределами организации.

Grammarly использует искусственный интеллект в своем продукте на протяжении последних 15 лет, а его Центр доверия пользователей стал отраслевым стандартом для четкого взаимодействия с использованием искусственного интеллекта. Он разбивает риски на четыре области:

  • Конфиденциальность
  • Безопасность
  • Согласие
  • Ответственный ИИ

«Менеджеры и лидеры проходят этот путь обучения вместе со своими командами, поэтому вы не можете обращаться к своему менеджеру за конкретным советом», — сказал Фоксвелл. «Централизованная группа поддержки или внешний партнер по обучению — хороший способ, если вы хотите получать последовательные сообщения».

Не забывайте, что ваша стратегия ИИ должна также учитывать продукты SaaS, которые вы уже используете. Если в продукт внедрили какой-то искусственный интеллект, проверила ли ваша компания его на соответствие требованиям?

Поскольку эти риски и варианты использования различаются в зависимости от домена, у вас не может быть одной политики, которая бы управляла ими всеми. Рассмотрите некоторые общие правила данных и безопасности, а затем позвольте экспертам в предметной области и предметной области высказать свое мнение по аспектам, специфичным для отдела. И обосновывайте любые политики примерами по доменам или отделам.

Создавая политику использования ИИ, не забудьте «перевести» ее с юридического языка, чтобы изложить термины, понятные всем сотрудникам. Это хороший вариант использования GenAI — при условии, что в процессе есть человек-рецензент.

Чтобы узнать больше, загрузите «ИИ для предприятия: Руководство по разработке и масштабированию вашей стратегии ИИ» сегодня!

Red Hat OpenShift — это безграничные инновации. Воплощайте большие идеи в жизнь с помощью гибридной облачной платформы, открытой для любого приложения, команды или инфраструктуры. Узнайте больше Последние новости от Red Hat ТЕНДЕНЦИОННЫЕ ИСТОРИИ YOUTUBE.COM/THENEWSTACK Технологии развиваются быстро, не пропустите ни одного выпуска. Подпишитесь на наш канал YouTube, чтобы смотреть все наши подкасты, интервью, демонстрации и многое другое. ПОДПИСАТЬСЯ Группа, созданная в Sketch. Дженнифер Риггинс — рассказчик о технологиях и журналист, ведущая мероприятий и дискуссий. Она устраняет разрыв между бизнесом, культурой и технологиями, ее работа основана на опыте разработчиков. Она работает писателем с 2003 года и живет… Подробнее от Дженнифер Риггинс.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *