Как генеративный ИИ выявляет слабое ценностное предложение продукта

Хотя это определенно был год агентного искусственного интеллекта, менее ясно, какое влияние окажет создание LLM на нейтральные в остальном проекты. Мы видели, как несколько программных продуктов оседлали маркетинговую волну, чтобы дать себе время на разворот, но ожидания общественности от ИИ еще не устоялись.

Это приводит к вопросу о том, какие типы проектов можно реализовать без негативного воздействия ИИ. В этом посте подчеркивается, как ИИ демонстрирует продукты, которые не очень четко выражают свою истинную ценность.

Как ИИ меняет ожидания пользователей и подвергает риску

Проблема, с которой творческие индустрии (из которых легче всего выделить игровую индустрию) сталкиваются с генеративным ИИ, заключается не в его использовании или злоупотреблении им, а в том, как теперь продукты воспринимаются пользователями. Должна ли игра содержать только ресурсы, созданные человеком, например классические произведения искусства? Это уже не академический вопрос.

Мы понимаем, что если вы попытаетесь выдать произведение плохо созданного искусства вместо искусства, созданного человеком, это будет справедливо описано как «отстой ИИ» и вызовет недовольство из-за воспринимаемой более низкой ценности. Но если ИИ является частью расширенного рабочего процесса, даже если людям платят за их работу, пользователям, возможно, потребуется знать больше. Например, в недавно выпущенной многопользовательской игре ARC Raiders появился враг-робот, и игроки не удивились тому, что движения робота генерировались с помощью искусственного интеллекта. Но, услышав в игре человеческие голоса, некоторые игроки были расстроены тем, что не каждая фраза озвучена. Несмотря на то, что актерам озвучивания платили, а ИИ использовался только для генерации переменных голосовых линий, некоторые игроки считали это неправильным.

Все рабочие процессы и процессы, на которые влияет LLM и которые напрямую взаимодействуют с пользователями-людьми, рискуют оказаться под вопросом.

Суть в том, что все рабочие процессы и процессы, на которые влияет LLM и которые напрямую взаимодействуют с пользователями-людьми, рискуют оказаться под вопросом. Мы все считали ChatGPT новым, когда впервые взаимодействовали с ним, хотя попытки заменить человеческую помощь ответами, генерируемыми окном чата, изначально были отклонены. Тем не менее, если компания правильно описала, что может получить пользователь (например, круглосуточная помощь по типичным проблемам), большинство пользователей приняли это предложение.

Саймон Уиллисон регулярно просит всех моделей LLM, на которых он смотрит, нарисовать пеликана на велосипеде. Обычно это до смешного плохо, но они помогают понять, что LLM до сих пор были способны лишь выдавливать объективную реальность из сети (которую к настоящему времени уже усвоило большинство LLM). Вот почему мы правы, что в настоящее время мы не ценим создание имиджа LLM. В качестве примера SVG-изображение ниже представляет собой ответ Mistral Large 3:

Результат SVG от Mistral для пеликана на велосипеде

Саймон делает это не для того, чтобы высмеять выпускников LLM, он просто подчеркивает, что все модели делают совершенно уникальные и (на взгляд человека) странные попытки выполнить задачу, поскольку у них в голове нет реальной модели, с которой можно было бы работать. Действительно, у них нет голов.

Подводные камни продуктов с искусственным интеллектом

Проект веб-браузера Ladybird, о котором я упоминал ранее в этом году, имеет простую идею: он создан с нуля, без каких-либо компонентов из других браузеров. Он не только обещает отсутствие монетизации, но и фокусируется на том, чтобы быть просто веб-браузером. Так что теперь у него есть еще одно невысказанное преимущество: в нем нет встроенной услуги LLM.

Сравните это, например, с Google, который настолько занят интеграцией искусственного интеллекта в Chrome и другие продукты, что пользователям уже не понятно, что они получают. Технически служба ИИ-обзоров в поиске, которая выдает короткий сгенерированный ответ, а не просто список ссылок, отделена от браузера. Но эти необходимые разделения теперь запутались, когда Google представил Chrome как браузер с искусственным интеллектом. Я писал об Atlas, браузере OpenAI «со встроенным ChatGPT», который уводит нас дальше от оригинального Интернета. Никто не хочет пеликана на велосипеде.

Худшее, что можно сделать, — это представить продукт или опыт как «нативный для искусственного интеллекта» или «в первую очередь искусственный интеллект». Все должно быть направлено на то, чтобы быть пользователем в первую очередь.

Опять же, опасения возникают не потому, что LLM — это своего рода яд, а потому, что крупные компании не могут объяснить, какую ценность их услуги приносят. Решение представить LLM как колдовство добавляет некоторый мистический эффект, который невозможно измерить количественно, но, тем не менее, он должен распространяться на всю организацию для достижения максимального эффекта. Это противоречит опыту использования ChatGPT большинства людей — они могут точно видеть, что он делает хорошо, а что нет. Худшее, что можно сделать, — это представить продукт или опыт как «нативный для искусственного интеллекта» или «в первую очередь искусственный интеллект». Все должно быть ориентировано на пользователя. Я регулярно сообщаю о том, как Agentic AI успешно предоставляет разработчикам новые способы разработки программного обеспечения (например, см. мой обзор Conductor), даже если еще слишком рано оценивать истинную эффективность. Однако пользователи (в данном случае разработчики) действительно могут увидеть преимущества.

Я понимаю, что нажатие педали тормоза для замедления автомобиля обычно по-прежнему является механическим процессом (т. е. гидравлическим усилием на тормозах), но теперь его также можно выполнять по проводу (т. е. педаль посылает электронный сигнал тормозам). Я понимаю, что электромобили (EV) по-прежнему могут использовать механическую резервную копию. Я смутно понимаю, как работает АБС. Информация доступна, но мы признаем, что проектирование выполняется целостно. Но меня бы не привлекла машина, произносящая себя как «родная проводка» или «сначала проводная». Я просто ожидаю, что любой автопроизводитель ценит использование в своих автомобилях безопасных и эффективных компонентов.

Понимание юридических рисков использования LLM

Последний риск, связанный с LLM, более знаком. Midjourney добилась успеха в создании очень хорошего продукта для создания изображений с моделями с открытым исходным кодом, но теперь она сталкивается с несколькими юридическими проблемами. Более крупная компания может лучше управлять юридическими рисками или отношениями с предприятиями, которые они подрывают. Midjourney явно должны были увидеть и бороться с «вопиющим нарушением авторских прав», о котором люди предупреждали их с самого начала. Но они не внесли достаточно инноваций на уровне подсказок пользователю или на уровне вывода, чтобы обойти это. Для сравнения, YouTube усердно работает над выявлением нарушений в видео, загружаемых на его платформу.

Проблема других проектов заключается в том, что даже при небольших объемах генерации LLM они теперь подвергаются юридическим угрозам — и в большей степени, если судебный процесс будет успешным. Ограничивая свое ценностное предложение на раннем этапе, они могут помешать пользователям исследовать области, где вероятны нарушения.

Почему четкое ценностное предложение имеет значение в эпоху искусственного интеллекта

Я поддерживаю идею о том, что LLM — это всего лишь инструменты, однако они явно повлияют на многие существующие и новые программные проекты непредсказуемым образом. LLM привнесли необходимость полностью изучить и объяснить, как теперь могло измениться ценностное предложение вашего продукта. Или было ли это предложение достаточно зрелым вообще.

Проектам необходимо усерднее работать, чтобы самостоятельно объяснить, что производят их продукты, какие результаты ожидаются и в какой области эти результаты попадают. Тогда зона ответственности проекта будет яснее. «LLM сделал это» больше не будет считаться действительным ответом при изучении этих границ в будущем.

ТЕНДЕНЦИОННЫЕ ИСТОРИИ YOUTUBE.COM/THENEWSTACK Технологии развиваются быстро, не пропустите ни одной серии. Подпишитесь на наш канал YouTube, чтобы смотреть все наши подкасты, интервью, демонстрации и многое другое. ПОДПИСАТЬСЯ Группа, созданная в Sketch. Дэвид работал профессиональным разработчиком программного обеспечения в Лондоне в компаниях Oracle Corp. и British Telecom, а также консультантом, помогающим командам работать более гибко. Он написал книгу о дизайне пользовательского интерфейса и с тех пор пишет технические статьи. Подробнее Дэвид Истман

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *