Ускоренный курс этики агентного ИИ: автономия против доверия

Сегодня как лидеры, так и специалисты-практики оказываются за рулем мощных механизмов искусственного интеллекта. Какая из самых ярких новых особенностей этих автомобилей? Возможности самостоятельного управления агентным ИИ.

Поскольку каждое новое внедрение предлагает больше автономных возможностей, чем предыдущее, команды на каждом уровне должны согласовывать свою оптимальную стратегию автономности и доверия, так же, как они это делают при создании автомобиля. Должно ли транспортное средство с искусственным интеллектом быть самоуправляемым, иметь передовые системы помощи водителю или полагаться на подход, управляемый человеком? И как организация может оценить надежность каждого варианта для всех заинтересованных сторон?

Создание этих передовых практик имеет важное значение для устойчивого внедрения ИИ. Этот баланс автономности ИИ и надежности не просто определяет техническую реализацию; оно должно определять способ создания организацией систем искусственного интеллекта. Тогда все смогут уверенно интегрировать этот баланс в операции для обеспечения соответствия нормативным требованиям.

Для начала полезно пройти ускоренный курс по автономности ИИ, надежности ИИ и тому, как достижение баланса может подготовить организации к ответственным инновациям. Пристегнитесь.

Цикл в спектре автономии ИИ

При определении наиболее подходящего уровня автономии ИИ и разработке стратегии его развертывания рассматривайте саму автономию как континуум. Подобно тому, как беспилотные автомобили работают на разных уровнях независимости, системы искусственного интеллекта также существуют в широком спектре автономии.

На одном конце спектра системы «человек в цикле» предоставляют пассивную помощь и рекомендации, одновременно давая людям контроль над окончательными решениями. Например, рассмотрим системы обнаружения мошенничества, которые отмечают подозрительные транзакции для проверки человеком. Подумайте о таких функциях, как предупреждения о выходе из полосы движения или мониторинг слепых зон в автомобиле.

В середине системы «человек-на-контроле» работают под контролем человека, выполняя задачи автономно, сохраняя при этом механизмы надзора. Усовершенствованные системы помощи водителю являются примером такого подхода: ИИ выполняет повседневные задачи вождения, как и круиз-контроль, в то время как люди осуществляют контроль.

На противоположном конце континуума находятся автономные или автономные системы, работающие независимо в пределах определенных параметров, принимая решения без вмешательства человека в реальном времени. Рассмотрим алгоритмические торговые системы, автономные дроны, беспилотные автомобили в контролируемой среде и передовых производственных роботов.

Инженерная надежная автономность

Командам также необходимо изучить, может ли их организация надежно развертывать системы искусственного интеллекта в производственных средах. Шесть столпов надежного искусственного интеллекта — это важнейшие «функции безопасности», подобные тем, которые есть в автомобиле, которые заложены в систему с самого начала. К ним относятся:

  • Алгоритмическая справедливость и смягчение предвзятости для разных групп населения и вариантов использования, например, усовершенствованная тормозная система или точные датчики в автомобиле, которые обеспечивают стабильную и беспристрастную работу.
  • Прозрачность и объяснимый ИИ поскольку организации, заинтересованные стороны, а также внутреннее и международное право все чаще требуют, чтобы системы искусственного интеллекта нарушали процессы принятия решений. Это сродни комплексной системе диагностики автомобиля.
  • Надежность и надежность в производстве чтобы гарантировать стабильную работу систем в различных условиях, включая крайние случаи и кибератаки, точно так же, как надежный двигатель автомобиля.
  • Четкие рамки подотчетности которые включают в себя структуры собственности, процедуры обработки ошибок и механизмы обеспечения соответствия нормативным требованиям и внутренней политике, аналогичные записям о владении автомобилем или водительских правах.
  • Приоритет безопасности и защищенности данных защитить конфиденциальные данные с помощью мер конфиденциальности и кибербезопасности, подобных запертому перчаточному ящику с личными вещами.
  • Человекоцентричностьили разработку систем искусственного интеллекта для повышения благосостояния человека, поддержки человеческой активности и равенства, сравнимых с эргономичным дизайном автомобиля, в котором приоритетом являются комфорт и безопасность водителя.
  • Сочетание доверия и автономии для развития механизма искусственного интеллекта

    При выборе системы искусственного интеллекта имейте в виду, что каждая реализация требует определенного уровня контроля. Это включает в себя определение того, оправдывает ли выигрыш в производительности от сложной технологии или технологии «черного ящика» снижение объяснимости, особенно в регулируемых отраслях.

    Самые мощные реализации, такие как глубокое обучение, обработка естественного языка и генеративный искусственный интеллект, сопряжены с повышенным риском. Агенты искусственного интеллекта представляют собой высочайший уровень автономности и огромный потенциал для автоматизации. Они также представляют собой наиболее сложные проблемы с точки зрения надежности.

    Снижение рисков, включая отраслевые подходы и подходы, основанные на сценариях использования, строгие протоколы тестирования, процессы проверки и проверку контента, является одним из наиболее эффективных инструментов в наборе руководителя и практика для создания адекватных ограждений.

    5 лучших практик для достижения доверия и автономии

    Как будет выглядеть баланс доверия и автономии, когда он будет запущен на полную мощность? Это включает в себя сбор команды мирового класса по этике искусственного интеллекта, которая будет принимать важные решения с осторожностью и оценкой рисков на каждом шагу.

  • Лучшее торможение благодаря контекстно-зависимой оценке рисков
  • Лидерам следует уделять приоритетное внимание стратегиям развертывания ИИ, которые согласовывают уровни автономности с критичностью приложений. Системы потребительских рекомендаций могут допускать более высокую автономию при умеренном контроле за надежностью, тогда как приложения в сфере здравоохранения или финансов требуют тщательной проверки и человеческого контроля.

  • Внедрить подход, основанный на доверии
  • Интегрируйте требования надежности в жизненные циклы разработки ИИ — от концепции до развертывания. Это включает в себя создание протоколов управления данными, внедрение механизмов обнаружения предвзятости и создание требований к объяснимости, которые соответствуют потребностям бизнеса, при этом постоянно задаваясь вопросом: для какой цели? С какой целью? Для кого это может оказаться неудачным?

  • Осторожно набирайте обороты благодаря постепенному масштабированию автономности
  • Для приложений с высокими ставками начните с внедрения с участием человека и постепенно увеличивайте автономность по мере того, как системы доказывают надежность и надежность в производственных средах. Такой подход дает организациям возможность укрепить доверие и минимизировать риски.

  • Взгляд на приборную панель: непрерывный мониторинг и управление
  • Внедрите комплексные системы мониторинга с использованием искусственного интеллекта, которые отслеживают показатели производительности, обнаруживают аномалии и выявляют возникающие отклонения. Системы управления должны включать регулярные аудиты, обзоры эффективности и процедуры обновления, чтобы поддерживать надежность с течением времени.

  • Обратитесь к межфункциональной команде механиков по этике ИИ.
  • Соберите многопрофильные команды, в которые входят технические эксперты, специалисты в предметной области, юрисконсульты и специалисты по этике, чтобы принимать решения по развертыванию ИИ и обеспечивать соответствие организационным ценностям и нормативным требованиям.

    На пути к эпохе надежного искусственного интеллекта

    Как и автономные транспортные средства, агенты ИИ действуют с высоким уровнем независимости, создавая общую и часто размытую подотчетность. А по мере роста автономии доверие становится слепым пятном, если ответственность не определена четко.

    Одним из наиболее серьезных противоречий в отношении агентного ИИ является возложение ответственности за автономные действия. Когда агент ИИ, действующий с высокой степенью автономии, принимает решение или совершает действие, которое приводит к неблагоприятным результатам, будь то ошибка, вред или нарушение закона, определить окончательную ответственность становится сложнее. Кто несет ответственность: разработчик, развертыватель, пользователь или кто-то еще?

    Отсутствие четкой ответственности создает вакуум подотчетности, подрывая общественное доверие и приводя организацию к этическим затруднениям и юридическим проблемам.

    В конечном счете, стратегия развертывания ИИ должна сочетать большую автономию с более строгим контролем надежности. Если ИИ будет предоставлена ​​высокая независимость, он потребует высокого уровня управления, прозрачности, тщательного тестирования на крайние случаи и определенных моделей ответственности. Наиболее важные приложения требуют наибольшего человеческого контроля, а приложения с низким уровнем риска могут работать при контролируемой свободе и более высокой автономности.

    Прежде всего, лидеры должны сопротивляться искушению сделать ИИ максимально умным в погоне за конкурентным преимуществом. Вместо этого каждое стратегическое решение должно основываться на том, насколько надежным должен быть ИИ и кто будет нести ответственность, прежде чем человек встанет с водительского места. Имея защитные ограждения, лидеры могут дать организациям возможность двигаться вперед безопасно и стратегически.

    ТЕНДЕНЦИОННЫЕ ИСТОРИИ YOUTUBE.COM/THENEWSTACK Технологии развиваются быстро, не пропустите ни одной серии. Подпишитесь на наш канал YouTube, чтобы смотреть все наши подкасты, интервью, демонстрации и многое другое. ПОДПИСАТЬСЯ Группа, созданная в Sketch. Врушали Савант — специалист по данным из практики этики данных SAS, отвечающий за практическое внедрение принципов справедливости и надежности на платформе SAS. Имея опыт работы в области аналитического консалтинга, управления данными и визуализации данных, она… Читать далее от Врушали Савант Маниша Кханна — старший менеджер по продуктам в области искусственного интеллекта и генного искусственного интеллекта в компании SAS, занимающейся данными и искусственным интеллектом, где она возглавляет глобальную команду экспертов, занимающихся пропагандой искусственного интеллекта и генеративных технологий искусственного интеллекта. У нее двойная степень магистра делового администрирования и… Подробнее от Маниши Кханна.

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *