«Открытые» модельные лицензии часто несут в отношении ограничений

На этой неделе Google выпустил семью моделей Open AI, Gemma 3, которая быстро получила похвалу за их впечатляющую эффективность. Но поскольку ряд разработчиков оплакивался на X, лицензия Gemma 3 делает коммерческое использование моделей рискованным предложением.

Это не проблема, уникальная для Gemma 3. Такие компании, как Meta, также применяют пользовательские, нестандартные условия лицензирования к своим открыто доступным моделям, и термины представляют юридические проблемы для компаний. Некоторые фирмы, особенно меньшие операции, беспокоятся о том, что Google и другие могут «потянуть коврик» на свой бизнес, утверждая более обременительные пункты.

«Ограничительное и непоследовательное лицензирование так называемых« открытых »моделей ИИ создает значительную неопределенность, особенно для коммерческого усыновления»,-сказал Ник Видал, глава сообщества по инициативе с открытым исходным кодом, долгосрочным учреждением, стремящимся определить и «стюард». Все открытый исходный код. «Несмотря на то, что эти модели продаются как открытые, фактические термины устанавливают различные юридические и практические препятствия, которые удерживают предприятиям от интеграции их в свои продукты или услуги».

Разработчики открытых моделей имеют свои причины для выпуска моделей по лицензиям в качестве собственных лицензий, а не стандартными отраслевыми вариантами, такими как Apache и MIT. Например, Startup Startup Cohere была четко о своей намерении поддерживать научную, но не коммерческую, работать над своими моделями.

Но лицензии Gemma и Meta по Llama, в частности, имеют ограничения, которые ограничивают способы, которыми компании могут использовать модели, не опасаясь юридических репрессий.

Meta, например, запрещает разработчикам использовать «выходные или результаты» моделей Llama 3 для улучшения любой модели, помимо Llama 3 или «производных работ». Это также предотвращает компании с более чем 700 миллионами активных пользователей в месяц развертывание моделей LLAMA, не получая специальную дополнительную лицензию.

Лицензия Джеммы, как правило, менее обременительна. Но это дает Google право «ограничить (удаленно или иное) использование» Gemma, которое, по мнению Google, нарушает политику запрещенного использования компании или «применимые законы и правила».

Эти термины не относятся только к оригинальным моделям Llama и Gemma. Модели, основанные на ламе или Джемме, также должны придерживаться лицензий Llama и Gemma, соответственно. В случае Джеммы, это включает в себя модели, обученные синтетическим данным, генерируемым Gemma.

Florian Brand, научный сотрудник Немецкого исследовательского центра искусственного интеллекта, считает, что — несмотря на то, что вы поверите Tech Giant Exacts — лицензии, такие как Джемма и «Лама», не могут быть названы «Открытым исходным кодом».

«У большинства компаний есть набор утвержденных лицензий, таких как Apache 2.0, поэтому любая пользовательская лицензия — это много проблем и денег», — сказал Бренд TechCrunch. «Маленькие компании без юридических команд или денег для юристов будут придерживаться моделей со стандартными лицензиями».

Бренд отметил, что разработчики моделей ИИ с пользовательскими лицензиями, такими как Google, еще не принудительно соблюдал свои условия. Тем не менее, угрозы часто достаточно, чтобы удержать усыновление, добавил он.

«Эти ограничения оказывают влияние на экосистему ИИ — даже на таких исследователей искусственного интеллекта, как я», — сказал Бранд.

Хан-Чунг Ли, директор по машинному обучению в Moody’s, соглашается с тем, что пользовательские лицензии, такие как те, которые привязаны к Джемме и ламе, делают модели «не пригодными для использования» во многих коммерческих сценариях. Так же, как и Эрик Трамель, сотрудник, прикладной ученый из AI Startup Gretel.

«Лицензии, специфичные для модели, делают конкретные вырезания для производных моделей и дистилляции, что вызывает обеспокоенность по поводу коптя»,-сказал Трамель. «Представьте себе бизнес, который специально производит модель точных настрой для своих клиентов. Какую лицензию должна иметь гемма-дата из ламы? Какое влияние будет для всех их нисходящих клиентов? »

Сценарий, в котором развертывает больше всего страха, сказал Трамель, заключается в том, что модели — это своего рода троянскую лошадь.

«Модель литейного завода может выпустить [open] Модели, подождите, чтобы увидеть, какие бизнес-кейсы развиваются с использованием этих моделей, а затем проникают в успешные вертикали за счет вымогательства или законов »,-сказал он. «Например, Gemma 3, по всем появлениям, кажется твердым выпуском — и может оказать широкое влияние. Но рынок не может принять его из -за структуры лицензий. Таким образом, предприятия, вероятно, будут придерживаться, возможно, более слабых и менее надежных моделей Apache 2.0 ».

Чтобы быть ясным, некоторые модели достигли широкого распространения, несмотря на их ограничительные лицензии. Например, Llama была загружена сотни миллионов раз и встроена в продукты из крупных корпораций, включая Spotify.

Но они могли бы быть еще более успешными, если бы они были допустимы лицензией, по словам Ячин Джернит, главы по машинному обучению и общества в AI Startup, обнимающего лицо. Джернит призвал таких поставщиков, как Google, перейти на открытие лицензионных рамок и «сотрудничать более напрямую» с пользователями на широко принятых условиях.

«Учитывая отсутствие консенсуса в отношении этих условий и тот факт, что многие из основных предположений еще не были проверены в судах, все это служит главным образом как заявление о намерениях этих актеров», — сказал Джернит. «[But if certain clauses] слишком широко интерпретируются, много хорошей работы окажется на неопределенной юридической основе, что особенно страшно для организаций, создающих успешные коммерческие продукты ».

Видал сказал, что существует срочная необходимость в моделях искусственного интеллекта, которые компании могут свободно интегрировать, изменять и делиться, не опасаясь внезапных изменений лицензии или юридической неоднозначности.

«Нынешний ландшафт лицензирования модели искусственного интеллекта пронизан путаницей, ограничительными условиями и вводящими в заблуждение требования открытости», — сказал Видал. «Вместо того, чтобы переопределить« открытый »в соответствии с корпоративными интересами, индустрия ИИ должна соответствовать установленным принципам с открытым исходным кодом для создания действительно открытой экосистемы».