Группа под руководством Fei-Fei Li предполагает, что законы о безопасности искусственного интеллекта должны предвидеть будущие риски

В новом отчете, калифорнийская политическая группа под руководством Fei-Fei Li, пионера ИИ, предполагает, что законодатели должны учитывать риски ИИ, которые «еще не наблюдались в мире» при создании регулирующей политики ИИ.

Промежуточный отчет на 41 страницах, опубликованный во вторник, поступил из совместной калифорнийской политической группы по моделям Frontier AI, усилиям, организованном губернатором Гэвином Ньюсом после его вето спорного законопроекта о безопасности ИИ в Калифорнии, SB 1047. Хотя Newsom обнаружил, что SB 1047 пропустил знак, он признал в прошлом году необходимость более широкой оценки AI Ristrators.

В отчете LI вместе с соавторами Калифорнийского университета в Беркли Колледж вычислительного декана Дженнифер Чайес и Карнеги для международного президента мира Мариано-Флорентино Кулар выступит в пользу законов, которые повысят прозрачность в то, что строят лаборатории пограничных AI, такие как Openai. Заинтересованные стороны отрасли со всего идеологического спектра рассмотрели отчет до его публикации, в том числе убежденные защитники безопасности AI, таких как лауреат премии Тьюринга Йошуа Бенджио, а также те, кто выступил против SB 1047, таких как соучредитель DataBricks Ion Stoica.

Согласно отчету, новые риски, связанные с системами искусственного интеллекта, могут потребовать законов, которые заставит разработчиков модели ИИ публично сообщать о своих тестах на безопасность, практику сбора данных и меры безопасности. В отчете также выступает за увеличение стандартов, касающихся сторонних оценок этих показателей и корпоративной политики, в дополнение к расширенной защите разоблачителей для сотрудников и подрядчиков компании ИИ.

Li et al. Напишите, что есть «неубедительный уровень доказательств» для потенциала ИИ, чтобы помочь осуществить кибератаки, создать биологическое оружие или привести к другим «экстремальным» угрозам. Они также утверждают, однако, что политика ИИ должна рассматривать не только текущие риски, но и предвидеть будущие последствия, которые могут произойти без достаточных гарантий.

«Например, нам не нужно наблюдать за ядерным оружием [exploding] Чтобы достоверно предсказать, что это может и может привести к обширному вреду », говорится в отчете.

В отчете рекомендуется двухсторонняя стратегия по повышению прозрачности разработки модели ИИ: доверие, но подтвердите. Разработчики моделей ИИ и их сотрудники должны быть предоставлены направлениям для сообщений о областях общественного беспокойства, говорится в отчете, таких как внутреннее тестирование безопасности, в то время как также необходимо подавать претензии на тестирование для проверки сторонних сторон.

В то время как в отчете, окончательная версия которой выйдет в июне 2025 года, одобряет никакого конкретного законодательства, оно было хорошо принято экспертами по обе стороны дебатов по политике ИИ.

Дин Болл, ориентированный на Ай научный сотрудник Университета Джорджа Мейсона, который критиковал SB 1047, заявил в должности X, что отчет является многообещающим шагом для калифорнийского регулирования безопасности ИИ. По словам сенатора штата Калифорния Скотта Винера, который также представил SB 1047 в прошлом году, это также победа для защитников ИИ. Винер сказал в пресс -релизе, что отчет основан на «срочных разговорах вокруг управления ИИ, которые мы начали в законодательном органе [in 2024].

Похоже, что отчет соответствует нескольким компонентам SB 1047 и последующим законопроектам Wiener SB 53, такими как требование разработчиков модели ИИ сообщать о результатах тестов безопасности. Принимая более широкую точку зрения, это, кажется, столь необходимая победа для людей безопасности ИИ, чья повестка дня потеряла позиции в прошлом году.