Как Великобритания направляет использование генеративного ИИ

Я надеюсь, что еще несколько человек смотрели на Antiqua et № Новы Ватикана после кончины Папы, так как у него довольно зрелое этическое исследование генеративного ИИ. Взвешивая более 13 000 слов, я бы не ожидал, что это будет чтение, но есть довольно разумные позиции, отделяющие злоупотребление от потенциала.

Тем не менее, для этого поста я смотрю на генеративную книгу ИИ правительственной службы правительства Великобритании, поскольку это активные советы для реальных отделов и государственных органов. Хотя это должно быть интересно для любой общественной организации, финансируемые государством органы имеют свои проблемы и пристрастия. Я буду проходить через этот документ через его 10 принципов, но общий момент в том, что пейзаж существует в качестве руководства.

В то время как GDS никогда не смогли создать правительство в качестве платформы, агентство было первым серьезным показателем такого подхода. Он всегда был открыт в документировании своих собственных технических процессов.

Явная цель этого пьесы состоит в том, чтобы «помочь государственным департаментам и организациям государственного сектора использовать силу более широкого спектра технологий ИИ безопасно, эффективно и ответственно». Но за этим существует смутная политическая предыстория, поскольку британское правительство заявило, что ИИ должен быть принят, чтобы сэкономить деньги. (Я подозреваю, что общая политическая структура была гораздо менее беспокойной, когда эта стратегия сформировалась.)

Чтение и соблюдение руководящих принципов — это то, что мы обычно подписываем, но не с каким -либо удовольствием. Этот документ использует довольно простой язык, чтобы сформировать последовательный повествование. Начиная с определения, что такое ИИ?

Типы искусственного интеллекта, согласно «пьесу искусственного интеллекта для правительства Великобритании».

Агент ИИ также упоминается, поэтому стратегия сохраняется свежей. И я чувствую, что это делает полезную справочную область для других.

10 принципов

Следует отметить 10 принципов, направленных на использование ИИ. Они часто указывают на более подробные разделы дальше по документу. Помимо очевидных вещей, таких как «выяснить, что это такое, прежде чем его использовать», эти принципы являются сильной попыткой позволить людям изучить свои собственные рассуждения.

Не все это своевременно; В предложении «Системы ИИ в настоящее время не хватает рассуждений и контекстуальной осведомленности» в первом принципе, похоже, вряд ли станет хорошо. Руководство по Ватикану по сравнению разумно изолируют многолетнюю слабость в ИИ на ранней стадии: он ограничен функциональными реакциями и не может получить воплощенную уникальную человеческую перспективу.

Хорошие рассуждения и контекстуальная осведомленность получают большие языковые ответы на модель в горячую воду, так как они достаточно хороши, чтобы быть очень раздражающими, когда не правы. Использование ответов Google Близнецов может подтвердить это.

Принцип 2, по этике и ответственности, по понятным причинам намного слабее, чем заявления Ватикана, но, по крайней мере, подчеркивает проблему с предвзятыми данными обучения. Тем не менее, отрасль предложила множество способов улучшения данных обучения. И, конечно же, Ватикан на самом деле ничего не внедряет.

Мне нравится, как в Playbook отмечается конкретные риски безопасности, которые являются уникальными для генеративного искусственного интеллекта в принципе 3. Эта часть придерживается слабых общих и точек зрения, специально для отравления данных, атак возмущения, быстрого инъекции, а также галлюцинации. Он отмечает, что большая часть цепочки инструментов ИИ »[w]как разработано в PACE, исследователями ИИ и учеными для данных, которые не следуют безопасным методам кодирования. Инструменты искусственного интеллекта часто имеют повышенные права доступа к системам, в которых они работают ».

Принцип 4 охватывает общий контроль человека. Это всегда звучит паникерскую, потому что никто не ставит сомневаться в том, что человек владеет любым инструментом, как правило, сохраняет общий контроль. Но как только вы примете, что Genai просто не является надежным или согласованным на выходе, когда вы используете его в цепочке инструментов, вы переходите управление полностью непрозрачной системой. В разделе Playbook, посвященной человеческому надзору, непосредственно признается, что автономные решения могут нарушать Общее правило защиты данных Великобритании (GDPR), которое основано на версии ЕС.

Принцип 5, который относится к «полному жизненному циклу AI», ссылается (я думаю) на использование генеративного ИИ в рамках стандартного жизненного цикла программного продукта, что определенно проблематично. Есть также стандарты услуг, о которых можно подумать, манит ли развертывание.

Но первоначально настройка LLMS через API -поставщики или размещение их локально, как правило, хорошо документирована, и, помимо проблем с безопасностью, может быть быстрой до прототипа — безусловно, не хуже, чем получить разрешение на размещение любого другого программного обеспечения в правительстве. Управление жизненным циклом может просто относиться к управлению разработчиками программного обеспечения, а не «кодирование Vibe».

Принцип 6 имеет вводящий в заблуждение название «Использовать правильный инструмент для работы», но имеет подходящее сообщение внизу. Слишком много организаций пытаются поднести один ответ на различные вопросы. LLM — это просто еще один способ насильства организационного принципа на протяжении всей вашей работы; Отделение повторяющихся задач от решений по развороту между ними.

Разбивая вашу работу и восстановление, это обычно поучительно — независимо от того, можете ли вы втиснуть некоторые решения LLM или нет. Именно здесь сообщество практики может помочь сравнить и сопоставить, как текущие решения LLM помогают с рабочими процессами в вашей организации.

Как это происходит, Принцип 7 напрямую относится к кровоправительному сообществу практики, но в первую очередь поощряет открытость в общении. Это попытка сформировать открытое сообщество ИИ для государственного сектора, и я не могу рекомендовать этот подход достаточно высоко. Документы включают выводы о «gov.uk Chat». К сожалению, это, похоже, не продолжалось в результате недавней смены администрации.

Временная шкала, показывающая, как был проведен эксперимент по чату Gov.uk, начиная с января 2024 года в блоге правительства в области цифровой службы в январе.

Для публичного тела оставаться прозрачным и открытым почти всегда сложнее, чем заинтересованные сторонники. (Принцип 8, о работе с коммерческими коллегами, является посланием от правительства Великобритании и не особенно серьезно. Слишком много людей в общественных органах работают там явно, чтобы избежать коммерческого сектора.)

Принцип 9 проверяет, что у вас есть команда для работы с LLMS. Значение «обучения ваших собственных моделей» в последнее время изменилось, но это все еще довольно специализированное занятие даже для разработчиков программного обеспечения. Различные инструменты для встроенного извлечения (RAG) и векторные встраиваемые инструменты постепенно демократизируют этот район. Существует раздел «Приобретение навыков и талантов» в пьесе, которая ссылается на открытое обучение для государственных служащих.

Наконец, Принцип 10 (использование этих принципов наряду с политикой вашей организации) вводит мрачный мир работы с политикой силоса-политики в межорганизации и выступает против других панелей, советов и групп давления. Неудивительно, что с такой горячей темой необходимы тщательная оценка рисков и документация по процессу. Но против этого этот очень открытый проект доказывает, что правительство поощряет, чтобы принять генеративный ИИ, что заслуживает похвалы.

Заключение

Я думаю, что большинство официальных общественных организаций должны, по крайней мере, принять набор принципов, выполненных GDS, и должны иметь небольшие проблемы с улучшением. Они, конечно, не написаны в камне. Большинство предприятий по -прежнему слишком близки к фронта, чтобы тратить время на размышления об использовании ИИ, и не несут ответственности за государственные департаменты.

Хотя мы все хотим, чтобы мы точно знали, куда направляются OpenAI и другие технические лидеры, лучше стратегически планировать LLM и генеративное использование ИИ, прежде чем совершать его в первую очередь.

Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Дэвид был лондонским профессиональным разработчиком программного обеспечения в Oracle Corp. и British Telecom, а также консультантом, помогающим командам работать более гибким образом. Он написал книгу по дизайну пользовательского интерфейса и с тех пор пишет технические статьи …. Подробнее от Дэвида Истмана

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *