Генеральный директор Meta Марк Цукерберг пообещал сделать искусственный общий интеллект (AGI), который примерно определяется как ИИ, который может выполнить любую задачу, которую человеческая банка может открыто доступно. Но в новом политическом документе Meta предполагает, что существуют определенные сценарии, в которых он может не выпустить высокоэффективную систему ИИ, которую он разработал внутри.
Документ, который Meta называет свою границу ИИ -структуру, определяет два типа систем ИИ, которые компания считает слишком рискованными для выпуска: «Высокий риск» и «Системы критического риска».
Как они определяют мета, как «Системы« высокого риска »и« критического риска »способны помочь в кибербезопасности, химических и биологических атаках [that] нельзя смягчить в [a] Предлагаемый контекст развертывания ». Системы высокого риска, напротив, могут облегчить атаку, но не так надежно или надежно, как критическая система риска.
Какие атаки мы здесь говорим? Meta приводит несколько примеров, таких как «автоматизированный сквозный компромисс экономной среды, защищенной наиболее защищенной практикой», и «распространение биологического оружия с высоким эффектом». Компания признает, что список возможных катастроф в документе Meta далеко не исчерпывает, но включает в себя те, которые Meta считает «самым срочным» и правдоподобным, возникающим как прямой результат выпуска мощной системы ИИ.
Несколько удивительно состоит в том, что, согласно документу, Meta классифицирует системный риск, не основанный на каком-либо эмпирическом тесте, но информирована по внедрению внутренних и внешних исследователей, которые подвергаются рассмотрению «лицами, принимающими решения старшего уровня». Почему? Meta говорит, что не верит, что наука о оценке «достаточно надежна, чтобы обеспечить определенные количественные показатели» для определения рискованности системы.
Если Meta определяет, что система является высоким риском, компания заявляет, что она будет ограничивать доступ к системе внутренне и не выпустит ее до тех пор, пока не будет реализована смягчения для «снижения риска до умеренных уровней». Если, с другой стороны, система считается критическим риском, Meta заявляет, что она будет реализовать неуточненную защиту безопасности, чтобы предотвратить эксплуатацию системы и остановить развитие, пока система не сможет сделать менее опасной.
Meta’s Frontier Framework, которая, по словам компании, будет развиваться с изменяющейся ландшафтом ИИ, по -видимому, является реакцией на критику «открытого» подхода компании к развитию системы. Meta приняла стратегию сделать свою технологию ИИ открыто доступной — хотя и не открытым исходным кодом по обычно понятному определению — в отличие от таких компаний, как Openai, которые предпочитают затачивать свои системы за API.
Для Meta подход открытого выпуска оказался благословением и проклятием. Семья моделей ИИ компании под названием Llama набрала сотни миллионов загрузок. Но, как сообщается, Llama также использовалась по крайней мере одним противником США для разработки защитного чат -бота.
В публикации своей Frontier AI Framework Meta также может быть стремиться противопоставить свою открытую стратегию ИИ с китайской фирмой AI Deepseek’s. DeepSeek также делает свои системы открыто доступными. Но ИИ Компания имеет мало гарантий и может быть легко управляется для получения токсичных и вредных результатов.
«[W]E считая, что, рассматривая как преимущества, так и риски в принятии решений о том, как разрабатывать и развернуть передовой ИИ », — пишет Meta в документе, — можно предоставить эту технологию в общество таким образом, чтобы сохранить преимущества этой технологии для общества при одновременном поддержании соответствующего уровня риска ».
У TechCrunch есть информационный бюллетень, ориентированный на AI! Зарегистрируйтесь здесь, чтобы получить его в своем почтовом ящике каждую среду.