Ropenai Research Led Noam Brown считает, что модели AI «рассуждения» могли бы прибыть десятилетия назад

Ноам Браун, который руководит исследованиями ИИ в Openai, говорит, что «рассуждающие» модели искусственного интеллекта, такие как Oper’s O1, могли бы прибыть 20 лет ранее, когда исследователи были известны исследователям «известны [the right] подход »и алгоритмы.

«Были различные причины, по которым этим направлением исследований было пренебрежение», — сказал Браун во время панели на конференции NVIDIA GTC в Сан -Хосе в среду. «Я заметил, что в ходе моего исследования, что, хорошо, чего -то не хватает. Люди проводят много времени, думая, прежде чем они действуют в сложной ситуации. Может быть, это было бы очень полезно [in AI].

Браун является одним из основных архитекторов, стоящих за O1, моделью ИИ, в которой используется методика, называемая выводом времени тестирования, чтобы «мыслить», прежде чем она ответит на запросы. Вывод на время тестирования влечет за собой применение дополнительных вычислений к запуску моделей для управления формой «рассуждений». В целом, так называемые модели рассуждений являются более точными и надежными, чем традиционные модели, особенно в таких областях, как математика и наука.

Браун подчеркнул, однако, что предварительное обучение-обучение постоянно более широкому моделям на постоянных наборах данных-не совсем «мертвым». Лаборатории ИИ, включая Openai, однажды инвестировали большую часть своих усилий в расширении до тренировок. Теперь, по словам Брауна, теперь они разделяют время между предварительным тренировком и выводом времени на тестирование, которые Браун описал как дополнительные.

Брауна спросили во время панели, сможет ли академия когда -либо надеяться провести эксперименты в масштабах лабораторий искусственного интеллекта, таких как Openai, учитывая общее отсутствие доступа в учреждениях к вычислительным ресурсам. Он признал, что в последние годы он стал сложнее, поскольку модели стали более интенсивными вычислительными, но что ученые могут оказать влияние, исследуя области, которые требуют меньшего количества вычислений, таких как дизайн архитектуры моделей.

«[T]Вот возможность для сотрудничества между Frontier Labs [and academia]- сказал Браун. — Конечно, пограничные лаборатории смотрят на академические публикации и тщательно думают о том, что это делает убедительный аргумент, что, если это будет увеличено дальше, это будет очень эффективно. Если есть этот убедительный аргумент из статьи, вы знаете, мы рассмотрим это в этих лабораториях ».

Комментарии Брауна появляются в то время, когда администрация Трампа делает глубокие сокращения научного гранта. Эксперты по искусственному искусству, в том числе нобелевский лауреат Джеффри Хинтона, критиковали эти сокращения, заявив, что они могут угрожать исследовательским усилиям ИИ как внутренних, так и за рубежом.

Браун назвал бенчмаркинг ИИ как область, где научные круги могут оказать значительное влияние. «Состояние тестов в ИИ действительно плохое, и это не требует много вычислений», — сказал он.

Как мы писали ранее, популярные тесты ИИ сегодня имеют тенденцию проверять эзотерические знания и дают оценки, которые плохо коррелируют с мастерством в задачах, о которых большинство людей заботятся. Это привело к широко распространенной путанице в отношении возможностей и улучшений моделей.