Закон о ИИ ЕС: последний проект кода для производителей моделей искусственного интеллекта

В преддверии майского крайнего срока, чтобы заблокировать руководство для поставщиков моделей AI (GPAI) общего назначения (GPAI) по соблюдению положений Закона ЕС, которые применяются к Большому ИИ, третий проект кодекса практики был опубликован во вторник. Кодекс был в формулировке с прошлого года, и ожидается, что этот проект будет последним раундом пересмотра, прежде чем руководящие принципы будут завершены в ближайшие месяцы.

Сайт также был запущен с целью повышения доступности кода. Письменные отзывы о последнем проекте должны быть представлены до 30 марта 2025 года.

Специалист правил, основанный на рисках для искусственного интеллекта, включает в себя подсбор обязательств, которые применяются только к самым мощным производителям ИИ-охватывают такие области, как прозрачность, авторское право и снижение риска. Кодекс направлен на то, чтобы помочь производителям моделей GPAI понять, как выполнять юридические обязательства и избежать риска санкций за несоблюдение. Штрафы за акт AI за нарушения требований GPAI, в частности, могут достичь 3% от глобального годового оборота.

Оптимизирован

Последний пересмотр Кодекса считается «более оптимизированной структурой с утонченными обязательствами и мерами» по сравнению с более ранними итерациями, основанной на отзывах второго проекта, который был опубликован в декабре.

Дальнейшие отзывы, дискуссии и семинары рабочей группы будут включены в процесс превращения третьего проекта в окончательное руководство. И эксперты говорят, что они надеются добиться большей «ясности и согласованности» в окончательной принятой версии кода.

Проект разбивается на несколько разделов, охватывающих обязательства по средним баллу, а также подробное руководство по прозрачности и мерам авторского права. Существует также раздел по обязательствам по безопасности и безопасности, которые применяются к наиболее мощным моделям (с так называемым системным риском или GPAISR).

При прозрачности руководство включает в себя пример модельной формы документации, можно ожидать, что можно заполнить, чтобы убедиться, что развертыватели их технологий имеют доступ к ключевой информации, чтобы помочь с собственным соответствием.

В другом месте, секция авторских прав, вероятно, остается наиболее спорной областью для большого ИИ.

Нынешний проект изобилует такими терминами, как «наилучшие усилия», «разумные меры» и «соответствующие меры», когда речь идет о соблюдении обязательств, таких как соответствующие требования к правам, когда ползает в Интернете для получения данных для обучения модели или смягчения риска моделей, выпускающих выходы, вносящие правила.

Использование такого опосредованного языка предполагает, что AI-гиганты, прилагающие данные, могут почувствовать, что у них есть достаточно места для маневра, чтобы продолжать получить защищенную информацию для обучения своих моделей и попросить прощения позже, но еще неизвестно, заганивается ли язык в окончательном проекте кода.

Язык, используемый в более ранней итерации Кодекса — заявив, что GPAI должны обеспечить единую точку контакта и обработку жалоб, чтобы упростить то, что правозащитники могут передавать жалобы «непосредственно и быстро», — по -видимому, исчез. Теперь существует просто линия, в которой говорится: «Подписки будут определять точку контакта для общения с затронутыми торговцами и предоставлять легко доступную информацию об этом».

Текущий текст также предполагает, что GPAIS может быть в состоянии отказаться от жалоб на авторские права, если они «явно необоснованные или чрезмерные, в частности из -за их повторяющегося характера». Это предполагает попытки креативщиков перевернуть масштабы, используя инструменты ИИ, чтобы попытаться выявить проблемы с авторским правом, и автоматизировать подачу жалоб на большой ИИ может привести к тому, что они просто игнорируются.

Когда дело доходит до безопасности и безопасности, требования Закона ЕС АИТ для оценки и смягчения системных рисков уже применяются только к подмножеству самых мощных моделей (те, которые обучены с использованием Общая вычислительная мощь более 10^25 провалов) — но этот последний проект видит, что некоторые ранее рекомендуемые меры были дополнительно сужены в ответ на обратную связь.

Наш давление

В пресс -релизе ЕС в пресс -релизе ЕС о последнем проекте — это волнистые нападения на европейское законодательство в целом, и правила блока для искусственного интеллекта, в частности, выходящие из администрации сша во главе с президентом Дональдом Трампом.

На вершине Action Action Paris Action в прошлом месяце вице -президент сша JD Vance отклонил необходимость регулирования, чтобы обеспечить применение ИИ — администрация Трампа вместо этого склонится к «возможности ИИ». И он предупредил Европу, что чрезмерная регуляция может убить золотого гуся.

С тех пор блок перешел, чтобы убить одну инициативу по безопасности ИИ — поставив директиву ответственности AI на рубку. Законодатели ЕС также отставали от входящего пакета «Omnibus», посвященного упрощению реформ к существующим правилам, которые, по их словам, направлены на сокращение красной ленты и бюрократии для бизнеса, с акцентом на такие области, как отчеты об устойчивом развитии. Но с актом ИИ, который все еще находится в процессе реализации, явно применяется давление для разбавления требований.

В начале этого месяца в Барселоне в Барселоне в Барселоне Французский производитель моделей GPAI Мистерал — особенно громкий противник Закона ЕС во время переговоров, чтобы заключить законодательство еще в 2023 году — с основателем Артуром Меншем утверждал, что у него трудно найти технологические решения для соблюдения некоторых правил. Он добавил, что компания «работает с регуляторами, чтобы убедиться, что это разрешено».

В то время как этот кодекс GPAI разрабатывается независимыми экспертами, Европейская комиссия — через офис искусственного интеллекта, который контролирует правоприменение и другие действия, связанные с законом — параллельно, дает какое -то «разъясняющее» руководство, которое также будет формировать то, как применяется закон. Включая определения для GPAI и их обязанности.

Так что ищите дополнительное руководство, «в свое время», от офиса искусственного интеллекта, который, по словам Комиссии, «уточнит… объем правил», так как это может предложить путь для нервно-потерянных законодателей, чтобы отреагировать на лоббирование сша для дерегулирования ИИ.