Развитие искусственного интеллекта ускоряется. Это было громкое послание от основного доклада Jensen Huang GTC 2025, где генеральный директор Nvidia подробно рассказал о том, как компания для будущего аппаратного обеспечения и инфраструктуры ИИ. Для тех из нас, кто работал над фронтом оптимизации ИИ, это был показательный момент не только для того, что было сказано, но и о том, что он сигнализирует о будущем направлении отрасли.
В моей повседневной работе, помогая организациям повысить эффективность и масштабы их рабочих нагрузок ИИ, я видел, как резина встречает дорогу. Бюджеты становятся ограниченными. Задержка имеет значение. Доступность энергии больше не гарантирована. В то время как основной доклад был заполнен объявлениями о передовых графических процессорах, она также появилась более глубокая истина: задача по инфраструктуре искусственного интеллекта больше не является просто созданием большего оборудования, а о том, как мы лучше используем то, что у нас уже есть.
1. Кривая спроса на график достиг поворота
Теперь известный комментарий Дженсена «100x» (что миру потребуется в 100 раз больше силы графического процессора, чтобы не отставать от требований вывода и агентского ИИ) подчеркнуло то, что многие в отрасли уже чувствуют: вывод искусственного интеллекта масштабируется в темпе, что может сделать графические процессоры наиболее востребованным ресурсом на земле. Но когда мы переходим от обучения масштабных моделей к развертыванию многих небольших специализированных моделей в производстве, отрасль должна адаптироваться.
Не каждая рабочая нагрузка AI требует мощности GPU высшего уровня. Фактически, многие задачи вывода могут быть более эффективно выполнены с более умной оптимизацией и лучшим сопоставлением между моделью и оборудованием. В масштабе предприятиям потребуется меньше высоких графических процессоров и более экономически эффективных решений для их развертывания ИИ, в конце концов, они не могут оправдать кремний на верхних полках для таких задач, как контроль продуктового магазина.
2. Параллель ЦП-к-г-и-г-и-г-с-ГП: почему оптимизация программного обеспечения имеет значение сейчас больше, чем когда-либо
«Исторически сложилось так, что аппаратные узкие места часто вызывают важные сдвиги в сторону оптимизации программного обеспечения, чтобы преодолеть разрыв между спросом и возможностями. Мы наблюдаем, как сегодня аналогичный переход с помощью графических процессоров, где быстро растущие вычислительные требования превзойдут доступность оборудования.
Чтобы решить это, слои оптимизации и интеллектуальное промежуточное программное обеспечение будут играть важную роль в максимизации полезности существующих ресурсов. Организации, которые преуспевают в эффективном распределении и маршрутизации рабочих нагрузок по разнообразной аппаратной экосистеме, могут разблокировать значительные улучшения производительности без необходимости инвестировать в дополнительную инфраструктуру ».
3. Будущее ИИ будет определено специализированными, эффективными моделями
С ростом затрат на вычисление и реальность ограниченной доступности оборудования, инновации все чаще управляются сообществом с открытым исходным кодом. Вместо того, чтобы пытаться воспроизвести масштаб моделей класса GPT, разработчики строят более умные, более специализированные модели, которые преуспевают в узких задачах, одновременно имеющих более низкие требования к ресурсам.
Эти более слабые модели не просто более экономически эффективные, они также более развернуты в более широком спектре аппаратных сред, включая устройства Edge и инфраструктуру в Prem. Программное обеспечение для оптимизации сыграет решающую роль в том, чтобы сделать эти развертывания эффективными и масштабируемыми.
4. Устойчивость — это новая масштабируемость
Основная доклада Дженсена подчеркнула, что инфраструктура Nvidia создает для поддержки еще более мощного ИИ. Но это поднимает важный вопрос: устойчивым ли этот уровень расширения оборудования?
«Инфраструктура искусственного интеллекта должна учитывать больше, чем просто необработанная производительность, она также должна учитывать потребление энергии, физическое пространство и эксплуатационные расходы. Оптимизация рабочих нагрузок для использования только вычислительных ресурсов, действительно необходимых, будет иметь решающее значение для ответственного масштабирования ИИ. Предприятиям будет все больше необходимо использовать баланс между требованиями к производительности и ограничениями устойчивости, если« ИИ везде »будет в реальности, чтобы стать реальностью».
5. Сила Nvidia остается в оборудовании — но экосистеме нужно больше
Одним из самых ярких элементов основного доклада был сам Дженсен Хуан. Редко можно увидеть, как генеральный директор представляет как стратегическое видение высокого уровня, так и глубокий технический контекст без необходимости резервного копирования. Руководство NVIDIA в AI Hardware бесспорно.
Но так же впечатляет их аппаратная дорога, экосистема ИИ теперь нуждается в одинаково надежных программных решениях, чтобы соответствовать. По мере того, как модели диверсифицируют и развертывают среды, простота использования и гибкость становятся важными. Предприятиям нужны инструменты, которые не только используют силу графических процессоров, но и делают это таким образом, чтобы это было доступно, устойчиво и адаптируется к быстро развивающимся случаям использования.
Последние мысли
GTC 2025 ясно дал понять, что бум ИИ только начинается, но его следующий этап будет выглядеть совсем по -другому. Будущее не только на строительстве более быстрой чипсы. Речь идет о строительстве умных систем. Поскольку аппаратные инновации продолжаются, реальная возможность заключается в том, как мы оптимизируем и используем эту власть, чтобы донести ИИ к большему количеству людей, большему количеству мест и большему количеству проблем, которые стоит решить.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Геннадия Пекименко является генеральным директором и соучредителем Centml и доцентом в Университете Торонто, где он также работает в качестве преподавателей в Векторном институте ИИ. Его исследовательская и отраслевая работа сосредоточена на инфраструктуре искусственного интеллекта, вычислить … Подробнее от Gennady Pehimenko