Эрик Шмидт выступает против «Манхэттенского проекта для аги»

В политическом документе, опубликованном в среду, бывший генеральный директор Google Эрик Шмидт, генеральный директор AI Александр Ванг и Центр по безопасности ИИ Дэн Хендриккс заявил, что сша не должны преследовать манхэттенский стиль проекта к разработке систем искусственного интеллекта с разведыванием «сверхгуманского» интеллекта, также известного AGI.

В документе под названием «Стратегия супертеллигенности» утверждается, что американская заявка на то, чтобы контролировать суперинтелтингантные системы ИИ может вызвать ожесточенное возмездие из Китая, потенциально в форме кибератак, которая может дестабилизировать международные отношения.

«[A] Манхэттенский проект [for AGI] Предполагается, что соперники согласится с устойчивым дисбалансом или омницидом, а не движутся, чтобы предотвратить его »,-пишут соавторы. «То, что начинается как стремление к суперрушкону и глобальному контролю, побуждает к враждебным контрмерам и эскалации напряженности, тем самым подрывая саму стабильность, которую стратегия направляет защиту».

Соавтоспособный тремя весьма влиятельными фигурами в Америке, документ, в 1940-х годах в 1940-х годах, в 1940-х годах в 1940-х годах в 1940-х годах в 1940-х годах в 1940-х годах в 1940-х годах в 1940-х годах в 1940-х годах в 1940-х годах в 1940-х годах в 1940-х годах в 1940-х годах была предложена комиссия по атомной бомбах в Манхэттене. Секретарь энергетики сша Крис Райт недавно заявил, что сша находятся в «начале нового проекта Манхэттена» на ИИ, стоя перед суперкомпьютером вместе с соучредителем OpenAI Грегом Брокманом.

В последних месяцах стратегическая статья в стратегии суперинтеллигентности ставит под сомнение эту идею, отстаиваемую несколькими американскими политическими и отраслевыми лидерами, согласно которой программа, поддерживаемая правительством, является лучшим способом конкурировать с Китаем.

По мнению Шмидта, Ванга и Хендрика, сша находятся в чем -то вроде противостояния AGI, не отличающегося от взаимно уверенного разрушения. Точно так же, как глобальные державы не ищут монополии на ядерное оружие, что может вызвать упреждающий удар от противника,-Шмидт и его соавторы утверждают, что сша должны быть осторожны с тем, чтобы гонки на доминирование чрезвычайно мощных систем ИИ.

При сравнении систем ИИ с ядерным оружием может показаться крайним, мировые лидеры уже считают ИИ главным военным преимуществом. Пентагон уже говорит, что ИИ помогает ускорить цепь убийств военных.

Schmidt et al. Представьте концепцию, которую они называют Mutual, гарантированной неисправностью ИИ (MAIM), в которой правительства могут активно отключить угрожающие проекты ИИ, а не ждать противников, чтобы вооружить AGI.

Schmidt, Wang и Hendrycks предлагают, чтобы сша перешли с «победы в гонке к суперинтеллигенции» к разработке методов, которые удерживают другие страны от создания Superintelligent AI. Соавторы утверждают, что правительство должно «расширить [its] Арсенал кибератак, чтобы отключить угрожающие проекты ИИ », контролируемые другими странами, а также ограничивают доступ противников к расширенным чипам ИИ и моделями с открытым исходным кодом.

Соавторы определяют дихотомию, которая разыгрывалась в мире политики ИИ. Существуют «Doomers», которые считают, что катастрофические результаты развития искусственного интеллекта являются предрешенным выводом и выступают за страны, замедляющие прогресс искусственного интеллекта. С другой стороны, есть «страусы», которые считают, что страны должны ускорить развитие ИИ и, по сути, просто надеяться, что все это сработает.

В документе предлагается третий путь: измеренный подход к разработке AGI, который приоритет защитных стратегиям.

Эта стратегия особенно примечательна от Шмидта, который ранее высказывался о необходимости того, чтобы сша агрессивно конкурировали с Китаем в разработке передовых систем ИИ. Всего несколько месяцев назад Шмидт выпустил статью о том, что DeepSeek отметил поворотный момент в гонке ИИ Америки с Китаем.

Администрация Трампа кажется мертвым, продвигаясь вперед в развитии ИИ Америки. Однако, как отмечают соавторы, решения Америки вокруг AGI не существуют в вакууме.

Когда мир наблюдает, как Америка расширяет предел ИИ, Шмидт и его соавторы предполагают, что это может быть разумно использовать защитный подход.