GB200 NVL72

4 мая 2026   |   Живая аналитика

GB200 NVL72: 10-кратное удешевление вычислений и риск устаревания парка за полгода

Nvidia превращает серверы в единые суперкомпьютеры, ломая экономику ИИ и снижая стоимость вычислений в десять раз, но физика тепловыделения в 1000 Вт вынуждает индустрию отказываться от воздуха в пользу жидкостного охлаждения.

От чипа к системе: новая эра вычислений

История технологического сдвига началась с фундаментального изменения подхода к созданию инфраструктуры искусственного интеллекта. В конце 2025 года Nvidia представила сервер GB200 NVL72, который перестал быть просто набором отдельных графических ускорителей. Это решение объединило 72 чипа Blackwell и 36 процессоров Grace в единую логическую систему, обеспечив 30-кратный рост производительности при выводе результатов и 4-кратное ускорение обучения по сравнению с предыдущим поколением Hopper. Архитектура позволила преодолеть барьеры масштабирования для сложных моделей типа Mixture of Experts, где критически важна скорость обмена данными между узлами.

Важный нюанс: Переход от продажи отдельных GPU к комплексным суперкомпьютерам в стойке меняет саму экономику ИИ, делая стоимость одного вычисления в десять раз ниже за счет максимальной загрузки ресурсов.

К началу 2026 года фокус сместился на преодоление физических ограничений, с которыми столкнулась индустрия. Эксперты отмечали, что традиционное воздушное охлаждение перестало справляться с тепловыделением новых чипов, мощность которых превысила 1000 Вт на единицу. В ответ на это жидкостное охлаждение стало обязательным стандартом для развертывания GB200 NVL72. Китайские операторы и глобальные интеграторы начали массово внедрять системы прямого теплообмена и погружения в диэлектрические жидкости. Этот шаг позволил не только сохранить надежность оборудования, но и существенно повысить энергоэффективность дата-центров, что стало критическим фактором для бизнеса в условиях роста тарифов на электроэнергию.

Стоит учесть: Без перехода на жидкостное охлаждение дальнейшее увеличение плотности вычислений становится физически невозможным, что делает инфраструктурные инвестиции в системы терморегуляции столь же важными, как и закупка самих чипов.

В середине 2026 года на сцену вышли новые компоненты памяти, снявшие ограничения по пропускной способности. Массовый запуск производства памяти HBM4 и накопителей PCIe Gen6 от Micron позволил системам NVL72 достичь совокупного объема памяти до 2 ТБ и скорости передачи данных 1,2 ТБ/с на один центральный процессор. Эти показатели стали базой для автономных платформ, способных балансировать между высокой емкостью и энергоэффективностью. Одновременно с этим компания Micron анонсировала снижение энергозатрат на ИИ-проекты, что открывает доступ к решениям с увеличенной пропускной способностью в 2,3 раза и вдвое большей энергоэффективностью.

На фоне этого: Доступ к памяти HBM4 превращает NVL72 из мощного, но ограниченного сервера в полноценную платформу для развертывания самых крупных моделей ИИ без необходимости в сложной внешней инфраструктуре.

Стратегическое значение этих технологий подтвердили крупнейшие игроки рынка. Microsoft развернула первый узел распределенного кластера Fairwater, соединив дата-центры в разных штатах США и оснастив их системами GB200 NVL72. Каждый такой узел рассчитан на нагрузку свыше 120 киловатт и способен обеспечивать до 720 петафлопс вычислений. Параллельно ByteDance продемонстрировала гибкость бизнес-моделей, развернув в Малайзии кластер стоимостью 2,5 млрд долларов через местного оператора Aolani Cloud. Использование нейтральных юрисдикций и легальных посредников позволило компании получить доступ к 500 единицам оборудования NVL72, продолжая развитие продуктов ИИ в условиях экспортного контроля.

Важно: Глобальная конкуренция смещается в плоскость логистики и географии размещения дата-центров, где доступ к передовым чипам зависит от способности выстраивать сложные цепочки поставок через юрисдикции с благоприятным регулированием.

К концу первого квартала 2026 года стало очевидно, что текущее поколение GB200 NVL72 служит эталоном для оценки прогресса, но уже уступает место новым решениям. Nvidia анонсировала архитектуру Blackwell Ultra, которая в задачах с низкой латентностью демонстрирует производительность в 1,5 раза выше, чем у предшественника. В тестах с моделями DeepSeek новая система сократила время отклика в 58 раз, показав пиковую пропускную способность, в 53 раза превышающую показатели GB200. Это ставит под вопрос текущие стратегии масштабирования для облачных провайдеров, вынуждая их пересматривать планы обновления парка оборудования.

Ключевой вывод: Жизненный цикл технологий ИИ сокращается до нескольких месяцев, и инвестиции в инфраструктуру сегодня могут стать неэффективными уже завтра, если не учитывать скорость появления архитектур следующего поколения.

Несмотря на доминирование Nvidia, рынок начинает искать альтернативные пути для снижения энергопотребления. Компания Tensordyne представила метод вычислений на основе логарифмических чисел, который заменяет умножение сложением, обеспечивая в 8 раз более высокую энергоэффективность по сравнению с GB200 NVL72. Исследователи также отмечают, что к 2026–2027 годам традиционные методы масштабирования могут исчерпать свой потенциал, и дальнейший рост будет зависеть от прорывов в архитектуре и новых физических принципах работы чипов. Для бизнеса это означает необходимость диверсификации поставщиков и готовности к смене технологического стека.

Важный нюанс: Энергоэффективность становится главным ограничителем роста ИИ, и компании, игнорирующие альтернативные архитектуры вычислений, рискуют столкнуться с резким ростом операционных расходов на содержание дата-центров.

🤖 Сводка сформирована нейросетью на основе фактов из Календаря. Мы обновляем аналитический дайджест при необходимости — факты и хронология всегда доступны в Календаре ниже для проверки и изучения.
📅 Последнее обновление сводки: 4 мая 2026.


Ключевые сюжеты

Массовый запуск памяти HBM4 и переход на жидкостное охлаждение снимают физические ограничения систем GB200 NVL72. Это позволяет увеличить пропускную способность и снизить затраты на энергию, делая масштабные ИИ-проекты рентабельными. Без этих инфраструктурных изменений дальнейший рост вычислительной мощности становится невозможным.

Запуск HBM4 и PCIe Gen6 от Micron

Micron начала массовое производство памяти HBM4 и накопителей PCIe Gen6. Эти компоненты снимают технические ограничения для суперчипов NVIDIA Vera Rubin, увеличивая пропускную способность в 2,3 раза и вдвое повышая энергоэффективность.

📅 2026-03-17
Читать источник →

Обязательное жидкостное охлаждение для GB200

Система GB200 NVL72 объединяет 72 GPU и 36 CPU с тепловыделением свыше 1000 Вт на чип. Воздушное охлаждение не справляется с такой плотностью, поэтому жидкостное охлаждение становится стандартом для обеспечения надежности и энергоэффективности.

📅 2026-02-20
Читать источник →

Рост пропускной способности до 1,2 ТБ/с

Использование модулей SOCAMM2 объемом 192 Гб в составе GB200 NVL72 обеспечивает совокупный объем памяти до 2 ТБ и пропускную способность 1,2 ТБ/с на центральный процессор. Это создает базу для автономных платформ с балансом емкости и эффективности.

📅 2026-03-17
Читать источник →

Снижение стоимости инференса в 10 раз

Оптимизация архитектуры GB200 NVL72 и внедрение новых компонентов позволяют снизить стоимость вывода моделей ИИ в десять раз по сравнению с предыдущими решениями. Это открывает путь к массовому внедрению сложных ИИ-систем.

📅 2026-01-07
Читать источник →

Конфликт энергоэффективности и производительности

С одной стороны, системы GB200 NVL72 достигают рекордной производительности за счет высокой плотности и жидкостного охлаждения. С другой стороны, появляются альтернативные технологии (Tensordyne), предлагающие радикальное снижение энергопотребления, но, возможно, уступающие в пиковой мощности. Это создает дилемму выбора архитектуры: максимальная скорость или минимальные затраты на энергию.

Бизнесу необходимо оценивать задачи не только по скорости вычислений, но и по полному циклу владения, включая затраты на электроэнергию и охлаждение. Для задач с жесткими лимитами по питанию альтернативные решения могут стать предпочтительными.

Инфраструктурная гонка и географический разрыв

Массовое внедрение GB200 NVL72 требует сложной инфраструктуры (жидкостное охлаждение, HBM4), что доступно не всем регионам. В то же время, компании вроде ByteDance находят обходные пути через нейтральные юрисдикции, чтобы получить доступ к этим технологиям. Это усиливает разрыв между странами с развитой ИИ-инфраструктурой и теми, кто вынужден искать сложные схемы.

Стратегическим приоритетом становится не только закупка оборудования, но и создание или доступ к специализированным дата-центрам с соответствующими условиями эксплуатации. Компании должны учитывать логистические и регуляторные риски при планировании глобального развертывания.

Обновлено: 4 мая 2026

Календарь упоминаний:

2026
17 марта

NVL72 достигает 2 ТБ памяти и 1,2 ТБ/с пропускной способности

Система NVIDIA Vera Rubin NVL72 использует модули памяти SOCAMM2 объемом 192 Гб для достижения совокупного объема памяти до 2 ТБ и пропускной способности 1,2 ТБ/с на один центральный процессор. Эти компоненты формируют техническую базу для автономных платформ, обеспечивая баланс между высокой емкостью и энергоэффективностью в задачах искусственного интеллекта и высокопроизводительных вычислений.

Подробнее →

14 марта

Формирование ключевого звена кластера стоимостью $2,5 млрд

Серверные системы NVL72 на базе чипов GB200 станут ключевым элементом кластера из 500 единиц, развертываемого в Малайзии для ByteDance. Поставщиком оборудования выступает компания Aivres, а формальным владельцем инфраструктуры является оператор Aolani Cloud. Развертывание этих систем позволяет китайской корпорации развивать продукты искусственного интеллекта, используя легальные механизмы международной торговли и соблюдая экспортные правила США.

Подробнее →

22 февраля

GB200 NVL72 как база для сравнения производительности Blackwell Ultra

GB200 NVL72 — предшественник системы GB300 NVL72, построенной на архитектуре Blackwell Ultra, обеспечивает базовые показатели производительности, используемые для сравнения. В тестах, включавших модели DeepSeek, GB200 демонстрирует пиковую пропускную способность 4,26 токена в секунду на GPU, что в 53 раза ниже, чем у GB300. Также отсутствуют улучшения по скорости работы на пользовательском уровне и снижению латентности, в отличие от новой версии. Его роль заключается в службе эталоном для оценки прогресса в обработке запросов с высокими требованиями к времени отклика.

Подробнее →

20 февраля

Решение тепловой проблемы в высокопроизводительных системах ИИ

Платформа GB200 NVL72, объединяющая 72 GPU Blackwell и 36 CPU Grace, поставляется с жидкостным охлаждением по умолчанию из-за высокой мощности компонентов, превышающей 1000 Вт на чип. Воздушное охлаждение становится недостаточным из-за низкой теплоёмкости воздуха и сложностей проектирования при высокой плотности. Жидкостное охлаждение, включая прямой теплообмен и погружение в диэлектрические жидкости, позволяет эффективно удалять тепло, повышая надёжность и энергоэффективность систем.

Подробнее →

07 января

Снижение стоимости ИИ-инфренса через NVL72

NVL72 — суперкомпьютер, разработанный Nvidia в рамках инициативы Vera Rubin, — предназначен для массового производства во второй половине 2026 года. Он представляет собой масштабную систему, объединяющую 72 GPU и 36 CPU в едином логическом комплексе. Nvidia утверждает, что NVL72 может снизить стоимость инференса в десять раз по сравнению с предыдущими решениями благодаря более высокой степени использования ресурсов и оптимизации архитектуры под современные модели ИИ. Каждый GPU обеспечивает до 50 PFLOPS вычислений с низкой точностью, что в пять раз превышает производительность предыдущего поколения.

Подробнее →

2025
12 декабря

Прорыв в масштабируемости ИИ-систем

Nvidia GB200 NVL72 представляет собой систему, в которой 72 ускорителя размещены в одном стойке, обеспечивая 30-кратное увеличение производительности при выводе и 4-кратное — при обучении по сравнению с предыдущей архитектурой Hopper. Это позволяет компенсировать физические ограничения отдельных GPU и продлить возможности масштабирования ИИ-инфраструктуры. Однако такие улучшения временные, и к 2026–2027 годам дальнейшие значительные прорывы станут невозможными.

Подробнее →

04 декабря

Совместная архитектура обеспечила 10-кратный рост производительности

GB200 NVL72 — AI-сервер NVIDIA, разработанный для моделей на архитектуре MoE. Он включает 72 чипа, 30 ТБ общей памяти, второе поколение Transformer Engine и пятую версию NVLink. Эти компоненты обеспечивают эффективное распределение токенов между GPU и увеличивают пропускную способность. В тестах производительность GB200 NVL72 превысила Hopper HGX 200 в 10 раз.

Подробнее →

03 декабря

Революционный скачок в обработке моделей MoE благодаря GB200 NVL72

Сервер GB200 NVL72, построенный на архитектуре Blackwell, обеспечивает производительность в 10 раз выше, чем у предыдущей системы Hopper HGX 200, благодаря объединению 72 чипов и 30 ТБ общей памяти. Это позволило достичь высокого уровня распараллеливания, при котором обработка токенов распределяется между несколькими GPU. В сочетании с оптимизацией программного обеспечения, включая фреймворк NVIDIA Dynamo и формат NVFP4, система эффективно поддерживает масштабирование моделей Mixture of Experts.

Подробнее →



GB200 NVL72 имеет 11 записей событий в нашей базе.
Объединили похожие карточки: GB200 NVL72; Nvidia Blackwell GB200 NVL72; Nvidia Blackwell GB200 и другие.

Могут быть интересны: