Hype Machine разбавляет агент AI

Каждый крупный технологический прорыв происходит со своей справедливой долей неправильного толкования, будь то случайное или преднамеренное. Мы видели это раньше: программное обеспечение для промывки облака, которое размещено на чужом сервере или решениях «Данные», которые чуть больше, чем прославленные операторы, если-то. Теперь тот же шаблон разыгрывается с агентом искусственного интеллекта (ИИ) — концепция, которая должна сигнализировать о преобразующем сдвиге в возможностях ИИ, но все больше разбавляется маркетингом. Агент AI является новаторским, но многие организации применяют этот ярлык к своим продуктам, не предоставляя реальную интеллектуальную и автономию, которые определяют истинный агент AI.

Агент AI — это не просто еще один слой автоматизации. Это не чат -бот с несколькими дополнительными деревьями решений. И это, конечно, не двигатель рабочего процесса с переименованным названием. Настоящий агент AI работает со свободой, решает динамические, не определенные проблемы и выполняет, не полагаясь на жесткие, предопределенные пути.

Называть это агентом не делает его умным

В гонке, чтобы заработать на Gold Rush, я смотрел, как предприятия захватывают термин «агент AI AI», превращая его до не более чем улучшенных сценариев. Это не просто вводит в заблуждение, но и подрывает реальный прогресс ИИ.

Однажды я просмотрел демонстрацию, где продавец разбил своего нового «автономного агента». Через несколько минут я мог сказать, что это не агент. Это был чат -бот с более любимым интерфейсом в новой блестящей упаковке. Компании, покупающие эту шумиху, ожидают, что адаптивный ИИ, принимающий решения, но то, что они получают, является жесткой автоматизацией, основанной на правилах, которая рушится в тот момент, когда он сталкивается с сложными, реальными проблемами.

Итак, как вы отделяете истинный агент AI от маркетингового миража? Это просто. Может ли это принимать решения за то, что было явно запрограммировано? Если система просто следует за рабочими процессами и запускает предопределенные ответы, она не является агентом. Это просто старая автоматизация, одетая в брендинг искусственного интеллекта.

Агент ИИ предназначен для думания, так почему так много систем только следовали правилам?

В течение многих лет предприятия опирались на ИИ для автоматизации задач, ускорения рабочего процесса и анализа данных в масштабе. По моему опыту, большинство ИИ сегодня не думает. Он выполняет предварительно запрограммированные ответы с более сложным брендингом. Традиционные чат -боты и виртуальные помощники следовали за жесткими сценариями, основанными на предварительно определенных путях и предсказуемых направлениях. Эти узкие способности часто приводят к бесконечному разочарованию и мертвым заканчиваются обслуживанием клиентов.

Настоящий агент AI намного превосходит сегодняшние чат -боты. Он не будет генерировать текст и не выполнять основные команды. Он понимает, адаптируется на лету и действует со своим агентством.

Подумайте о простом сценарии обслуживания клиентов, связанном с отключением в Интернете:

Стандартный чат -бот спрашивает: «Вы пробовали перезагрузить маршрутизатор?» и переходит к человеку, если он не может найти сценарий.

Настоящий агент агент автоматически обнаруживает отключение в вашем регионе, проверяет историю вашей учетной записи, упорно оплачивает счет за ваши неудобства, при необходимости планирует обновлять вас. Все без вас даже нужно спросить.

Это разница.

Мозги, стоящая за агентским ИИ

Если агент AI является нашим опытом архитектора, то автоматические рассуждения являются основой. Это часть ИИ, которая гарантирует, что каждое решение не просто возможно, но доказно. Помните ту курс логики или математики, который вы проходили в колледже? Доказательства были необходимы, чтобы показать каждый шаг в вашем процессе, были герметичными. Теперь примените это к принятию решений ИИ.

Автоматизированные рассуждения помогают предотвратить галлюцинации ИИ- моменты, когда ИИ приходит к неправильному выводу. Он подтверждает каждое действие против набора ограничений для защиты согласованности и надежности.

Конституционный ИИ: установление границ для ответственных инноваций

Агентство AIS в огромной мощности контролирует, и конституционный ИИ является составляющим правил, который контролирует его. Это этическая основа агентских технологий. Слоистая структура, которая обеспечивает безопасность для систем ИИ для работы в рамках линий, проведенных законом, бизнес -стандартами и человеческой этикой.

Я наблюдал, как пиар -кошмар разворачивается в прошлом году, когда клиенту предоставил неточную информацию о ценах. Я сразу понял, что это станет растущей проблемой в обслуживании клиентов, поскольку бренды стремятся развернуть незрелый ИИ без надлежащих проверок и противовесов. Слишком часто то, что компании определяют как импульс, может быстро превратиться в хаос.

Я ожидаю, что полностью развязанный LLM неизбежно нанесет непоправимый ущерб предприятиям. Скорость без ограждений — хаос. Я считаю, что технические лидеры не должны гоняться за хаосом. Они должны строить с каденцией.

Вот где входит конституционный ИИ. Что делает конституционный ИИ уникальным, так это его способность адаптироваться. Политики могут быть настроены на нескольких уровнях, от широких организационных правил до стран, специфичных для страны. Этот подход защищает соответствие при удовлетворении нюансированных потребностей. Важной проблемой в этом процессе является достижение баланса между гибкостью и строгостью. Например, одной организации может потребоваться ИИ, чтобы обсудить конфиденциальные темы, в то время как другая может прямо запретить это. Конституционный ИИ создает структуру, которая уважает оба. В конституционных структурах ИИ наблюдательные модели ИИ (меньшие, дистиллированные версии традиционных ИИ) контролируют более крупные системы. Эти модели действуют как этические привратники, чтобы помочь гарантировать, что ни одна линия не пересекается. Они не всеведущие, но они не должны быть. Их работа проста: применить правила без исключений.

Скорость легко. Но нам нужны быстрые инновации со структурой.

Политика и этика ИИ: написание правил взаимодействия

Без надежной этической политики, агент Ай может выходить из -под контроля. Существует критическая необходимость в сотрудничестве между политиками, предприятиями и технологическими лидерами, чтобы определить, что агент ИИ может и не может сделать.

Политическая структура должна быть многогранна, начиная с глобальных принципов для предотвращения предвзятости и галлюцинаций. Региональные корректировки позволят соблюдать местные законы и культурные нормы, в то время как отраслевые правила могут удовлетворить уникальные операционные потребности. Эта система позволяет ИИ работать ответственно, не будучи чрезмерно ограничительным.

Но вот улов: политики нуждаются в нюансе. Чрезмерно широкие ограничения могут иметь неприятные последствия.

Недавно я разговаривал с коллегами о том, как ИИ может следовать правилам совершенно совершенно не оправдать ожиданий. Примером, который я использовал, был агент ИИ, закрывающий разговор с человеком, нуждающимся в психиатрической поддержке. Из-за своего ограничительного программирования агент отклоняет комментарии о самоповреждении вместо того, чтобы оказать сочувствие и помощь.

Этот сценарий напоминает мне, что многие реальные ситуации никогда не вписываются в предопределенные коробки. Чтобы ИИ работал безопасно и этически, мы должны разработать агентские агенты ИИ, которые могут рассуждать и понимать, когда лучший курс действий требует от них писать свои собственные линии.

Почему вы не можете фальшивый агент

Прямо сейчас мы находимся в определении с ИИ. Вниз по одной дороге мы можем заниматься искусственным искусством, который является эффективным, но предсказуемым. А вниз по другим? Истинный агент AI, который не просто реагирует, а причины, адаптируются и действуют независимо от умных ограждений. Агент ИИ-это карта, направляющая нас к реальному интеллекту, принявшим решения. Это разница между цифровым помощником, который следует за инструкциями, и цифровым стратегом, который самостоятельно ориентируется.

Есть правильный способ построить его и ленивый способ подделать его. Если ваш ИИ не принимает независимые решения помимо предварительно подписанных рабочих процессов, это просто еще один преувеличенный инструмент. Вы не можете положить свежий слой краски на автоматизацию и назвать ее шедевром.

Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Гленн Нетеркутт является главным технологическим директором и техническим сотрудником в Genesys, где он курирует стратегию облачной архитектуры: масштабируемость, микросервисы, облачный дизайн, устойчивость к разломам, аварийное восстановление, последовательность услуг, новые технологии и механизмы непрерывной доставки. У него есть фон … Подробнее от Гленна Нетеркутта

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *