Автор калифорнийского SB 1047, самого противоречивого законопроекта о безопасности AI в стране в 2024 году, вернулся с новым законопроектом AI, который мог бы встряхнуть Силиконовую долину.
Сенатор штата Калифорния Скотт Винер ввел в пятницу новый законопроект, который защитит сотрудников в ведущих лабораториях ИИ, что позволит им высказываться, если они считают, что системы ИИ их компании могут быть «критическим риском» для общества. Новый законопроект, SB 53, также создаст общедоступный кластер облачных вычислений, называемый Calcompute, чтобы дать исследователям и стартапам необходимые вычислительные ресурсы для разработки ИИ, который приносит пользу общественности.
Последний законопроект Wiener по безопасности AI, California SB 1047, был одним из наиболее спорных усилий по законодательству ИИ в размере 2024 года. SB 1047, направленный на предотвращение возможности очень больших моделей искусственного интеллекта создания катастрофических событий, таких как потерю жизни или кибератаки, стоимостью более 500 миллионов долларов. Тем не менее, губернатор Гэвин Ньюсом в конечном итоге наложил вето на законопроект в сентябре.
Дебаты по поводу последнего законопроекта Винера быстро стали уродливыми в 2024 году. Некоторые лидеры Силиконовой долины заявили, что SB 1047 повредит конкурентным преимуществам Америки в глобальной гонке ИИ и утверждал, что законопроект был вдохновлен нереалистичными опасениями того, что системы ИИ могут вызвать сценарии Судных вещей, похожие на научные фантастики. Тем временем сенатор Винер утверждал, что некоторые венчурные капиталисты, участвующие в «пропагандистской кампании» против своего законопроекта, частично указав на утверждение Y Combinator о том, что SB 1047 отправит основателей стартапов в тюрьму, утверждали эксперты по иску, вводит в заблуждение.
SB 53, по сути, занимает наименее противоречивые части SB 1047, такие как защита осведомителей и создание калькового кластера, и переупаковывает их в новый законопроект AI.
Примечательно, что Винер не уклоняется от экзистенциального риска ИИ в SB 53. Новый законопроект специально защищает информаторов, которые считают, что их работодатели создают системы ИИ, которые представляют «критический риск». Законопроект определяет критический риск как «предсказуемый или существенный риск того, что разработка, хранение или развертывание разработчика или развертывание модели фундамента приведет к гибели или серьезным травмам более 100 человек или более 1 миллиарда долларов в качестве ущерба правам в деньгах или имуществе».
SB 53 ограничивает разработчиков моделей Frontier AI — вероятно, включая OpenAI, Anpropic и Xai, среди прочего — от ответа против сотрудников, которые раскрывают информацию о информации генеральным прокуратуру Калифорнии, федеральным властям или другим сотрудникам. Согласно законопроекту, эти разработчики должны будут отчитываться перед информаторами о определенных внутренних процессах, которые обнаруживают информаторы.
Что касается Calcompute, SB 53 создаст группу для создания общедоступного кластера облачных вычислений. Группа будет состоять из представителей Калифорнийского университета, а также других государственных и частных исследователей. Это дало бы рекомендации по созданию Calcompute, насколько большим должен быть кластер, и какие пользователи и организации должны иметь к нему доступ.
Конечно, это очень рано в законодательном процессе для SB 53. Законопроект должен быть рассмотрен и принят законодательными органами Калифорнии, прежде чем он достигнет стола губернатора Ньюсома. Государственные законодатели наверняка будут ждать реакции Силиконовой долины на SB 53.
Тем не менее, 2025 год может быть более сложным для принятия счетов за безопасность ИИ по сравнению с 2024 году. Калифорния приняла 18 законопроектов, связанных с AI, в 2024 году, но теперь кажется, что движение AI Doom потеряло позицию.
Вице -президент JD Вэнс дал представление на вершине ACT ACT PARIS, что Америка не заинтересована в безопасности ИИ, а скорее приоритет инновациям ИИ. В то время как кластер Calcompute, созданный SB 53, наверняка можно рассматривать как прогрессивный прогресс в области ИИ, неясно, как законодательные усилия по риску экзистенциального ИИ будут развиваться в 2025 году.