CHATGPT может быть не таким мощным, как когда-то предполагалось

Chatgpt, платформа чатбота Openai, может быть не такой, как когда-то предполагалось. Но его аппетит в значительной степени зависит от того, как используется CHATGPT и модели ИИ, которые отвечают на запросы, согласно новому исследованию.

Недавний анализ Epoch AI, некоммерческого исследовательского института ИИ, попытался рассчитать, сколько энергии потребляет типичный запрос CHATGPT. Обычно цитируемая статистика заключается в том, что CHATGPT требуется около 3 ватт-часов силы, чтобы ответить на один вопрос, или в 10 раз больше, чем поиск в Google.

Эпоха считает, что это переоценивает.

Используя последнюю модель Openai по умолчанию для CHATGPT, GPT-4O, в качестве ссылки, Epoch обнаружил, что средний запрос CHATGPT потребляет около 0,3 ватт-часов-меньше, чем многие бытовые приборы.

«Использование энергии на самом деле не имеет большого значения по сравнению с использованием обычных приборов или нагрева или охлаждения вашего дома или вождения автомобиля», — сказал TechCrunk, Джошуа, аналитик Data в Epoch, который провел анализ.

Использование энергии ИИ — и его воздействие на окружающую среду, в целом, — является предметом спорных дебатов, поскольку компании ИИ стремятся быстро расширить свои следы инфраструктуры. Буквально на прошлой неделе группа из более чем 100 организаций опубликовала открытое письмо, призывающее в индустрии ИИ и регуляторах, чтобы гарантировать, что новые центры обработки данных ИИ не истощают природные ресурсы и заставляют коммунальные предприятия полагаться на невозобновляемые источники энергии.

Вы сказали TechCrunch, что его анализ был подкреплен тем, что он охарактеризовал как устаревшее предыдущее исследование. Например, вы указали, что автор отчета, который прибыл в оценку в 3 ватт-часа, предполагается, что Openai использовали старые, менее эффективные чипы для запуска своих моделей.

Кредиты изображения:Эпоха ай

«Я видел много публичного дискурса, который правильно признал, что ИИ будет потреблять много энергии в ближайшие годы, но на самом деле не точно описывал энергию, которая была в ИИ сегодня», — сказали вы. «Кроме того, некоторые из моих коллег заметили, что наиболее широко известная оценка 3 ватт-часов за запрос была основана на довольно старых исследованиях, и на основе некоторой математики салфетки, казалось, была слишком высокой».

Конечно, фигура Epoch 0,3 ватт также является приближением; OpenAI не опубликовал детали, необходимые для точного расчета.

Анализ также не учитывает дополнительные затраты на энергию, понесенные функциями CHATGPT, такими как генерация изображений, или обработка ввода. Вы признали, что запросы CHATGPT «длинный ввод» — запросы — запросы с длинными файлами, например, — вероятно, потребляют больше электричества заранее, чем типичный вопрос.

Вы сказали, что он ожидает, что базовое энергопотребление CHATGPT будет расти, однако.

«[The] ИИ станет более продвинутым, обучение этому ИИ, вероятно, потребуется гораздо больше энергии, и этот будущий ИИ может использоваться гораздо более интенсивно — выполнение гораздо большего количества задач и более сложных задач, чем то, как люди используют чатт сегодня », — сказали вы.

Несмотря на то, что в последние месяцы произошли замечательные прорывы в эффективности искусственного интеллекта, ожидается, что масштаб, в котором развертывается ИИ, будет стимулировать огромное, жаждущее власти расширение инфраструктуры. В течение следующих двух лет центры обработки данных ИИ могут потребоваться почти вся мощность в Калифорнии в 2022 году (68 ГВт), согласно отчету RAND. К 2030 году обучение пограничной модели может потребовать выходной мощности, эквивалентной модели восьми ядерных реакторов (8 ГВт), прогнозируется отчет.

Один только CHATGPT достигает огромного — и расширяющегося — количества людей, что делает его сервер требованиями одинаково массивными. OpenAI, наряду с несколькими инвестиционными партнерами, планирует потратить миллиарды долларов на новые проекты центра обработки данных AI в течение следующих нескольких лет.

Внимание Openai — наряду с остальной частью индустрии ИИ — также переходит к моделям рассуждений, которые, как правило, более способны с точки зрения задач, которые они могут выполнить, но требуют большего количества вычислений. В отличие от моделей, таких как GPT-4O, которые реагируют на запросы почти мгновенно, рассуждает модели «думать» в течение секунды до минуты, прежде чем отвечать, процесс, который сосает больше вычислителей-и, следовательно, мощность.

«Модели рассуждений будут все чаще выполнять задачи, которые не могут более старые модели, и генерируют больше [data] Для этого, и оба требуют больше центров обработки данных », — сказали вы.

OpenAI начал выпускать более эффективные модели рассуждений, такие как O3-Mini. Но кажется маловероятным, по крайней мере, в этом этапе, что повышение эффективности компенсирует повышенные потребности в мощности от процесса «мышления» моделей и растущего использования ИИ во всем мире.

Вы предположили, что люди беспокоятся о своих приложениях Energy Footprint, таких как CHATGPT нечасто, или выбирать модели, которые минимизируют необходимые вычисления — в той мере, в которой это является реалистичным.

«Вы можете попробовать использовать меньшие модели искусственного интеллекта, такие как [OpenAI’s] GPT-4O-Mini,-сказали вы,-и экономно используйте их таким образом, чтобы это требовало обработки или генерации тонны данных ».