Сэм Альтман: Openai был на «неправильной стороне истории» относительно открытого исходного кода

Чтобы завершить день выпусков продукта, исследователи, инженеры и руководители Openai, в том числе генеральный директор Openai Сэм Альтман, ответили на вопросы в широком классе Reddit AMA в пятницу.

Openai оказывается в некоторой опасной позиции. Это борется с тем, что он ведет себя в гонке искусственного интеллекта для китайских компаний, таких как DeepSeek, который, как утверждает Openai, мог бы украсить его IP. Создатель CATGPT пытается поднять свои отношения с Вашингтоном и одновременно осуществить амбициозный проект центра обработки данных, в то же время, как сообщается, закладывает основы для одного из крупнейших раундов финансирования в истории.

Альтман признал, что Deepseek уменьшил лидерство Openai в ИИ, и он сказал, что, по его мнению, Openai был «на неправильной стороне истории», когда дело доходит до открытого поиска своих технологий. В то время как OpenAI в прошлом имел модели открытых источников, компания, как правило, предпочитала запатентованный подход к разработке с закрытым исходным кодом.

«[I personally think we need to] Выясните другую стратегию с открытым исходным кодом », — сказал Альтман. «Не все в Openai разделяют эту точку зрения, и это также не наша нынешняя приоритет… мы будем производить лучшие модели [going forward]но мы будем поддерживать меньше лидерства, чем в предыдущие годы ».

В последующем ответе Кевин Вейл, директор по продукту Openai, сказал, что OpenAI рассматривает возможность открытых поставщиков более старых моделей, которые больше не являются современными. «Мы обязательно подумаем о том, чтобы сделать больше этого», — сказал он, не вдаваясь в более подробные детали.

Помимо побуждения Openai пересмотреть свою философию выпуска, Альтман сказал, что DeepSeek подтолкнул компанию, чтобы потенциально раскрыть больше о том, как ее так называемые модели рассуждений, такие как модель O3-Mini, выпущенная сегодня, показывают свой «мыслительный процесс». В настоящее время модели OpenAI скрывают их рассуждения, стратегию, предназначенную для предотвращения сохранения данных обучения для своих собственных моделей. Напротив, модель рассуждения Deepseek, R1, показывает свою полную цепь мысли.

«Мы работаем над тем, чтобы показать кучу больше, чем мы показываем сегодня — [showing the model thought process] будет очень скоро очень скоро », — добавил Вейл. «TBD на всех — показывая всю цепочку мышления, приводит к конкурентной дистилляции, но мы также знаем, что люди (по крайней мере, власти) хотят этого, поэтому мы найдем правильный способ сбалансировать ее».

Альтман и Вейль попытались развеять слухи о том, что Chatgpt, платформа чат -ботов, через которую Openai запускает многие свои модели, увеличится в цене в будущем. Альтман сказал, что он хотел бы сделать CHATGPT «дешевле» с течением времени, если это возможно.

Альтман ранее говорил, что Openai теряет деньги на своем дорожном плане CHATGPT, Catgpt Pro, который стоит 200 долларов в месяц.

В несколько связанной ветке Вейл сказал, что Openai продолжает видеть доказательства того, что более вычислительная мощность приводит к «лучшим» и более эффективным моделям. По словам Вейла, это в значительной степени, что требует таких проектов, как Stargate, недавно объявленный массовый проект центра обработки данных Openai. Обслуживание растущей пользовательской базы также подпитывает вычислительный спрос и в OpenAI, продолжил он.

Отвечая на вопрос о рекурсивном самосовершенствовании, который может быть обеспечен этими мощными моделями, Альтман сказал, что, по его мнению, «быстрый взлет» более правдоподобен, чем он когда-то верил. Рекурсивное самосовершенствование-это процесс, в котором система ИИ может улучшить свой собственный интеллект и возможности без человеческого вклада.

Конечно, стоит отметить, что Альтман печально известен тем, что чрезмерно. Не так давно он опустил бар Openai для Agi.

Один пользователь Reddit спросил, будут ли модели Openai, самосовершенствовающие или нет, будут использоваться для разработки разрушительного оружия-особенно ядерного оружия. На этой неделе Openai объявила о партнерстве с правительством США, чтобы отчасти предоставить свои модели национальным лабораториям США для исследований ядерной обороны.

Вейл сказал, что доверял правительству.

«Я познакомился с этими учеными, и они являются экспертами по искусственному интеллекту в дополнение к исследователям мирового класса», — сказал он. «Они понимают мощность и пределы моделей, и я не думаю, что есть шанс, что они просто ввязываются модели в ядерном расчете. Они умные и основанные на фактических данных, и они проводят много экспериментов и данных, чтобы проверить всю свою работу ».

Команду Openai было задано несколько вопросов о более техническом характере, например, когда будет выпущена следующая модель рассуждений Openai, O3 («Более нескольких недель, менее чем на несколько месяцев», — сказал Альтман); Когда следующая флагманская модель компании «не запрашивающейся», GPT-5, может приземлиться («пока не будет график»,-сказал Альтман); И когда OpenAI может представить преемника Dall-E 3, модели, создающей изображение компании. Dall-E 3, который был выпущен около двух лет назад, получил довольно долго в зубе. Технология генерации изображений улучшилась на скачках и границах с момента дебюта Dall-E 3, и модель больше не является конкурентоспособной по ряду тестов.

«Да! Мы работаем над этим »,-сказал Вейл о последующем наблюдении Dall-E 3. «И я думаю, что это будет стоить ожидания».