Масштабирование ИИ-моделей
Масштабирование ИИ-моделей в новостной повестке, календарь упоминаний и aналитика в реальном времени.
Календарь упоминаний:
2025
03 декабря
Прорыв в эффективности моделей Mixture of Experts
Масштабирование моделей Mixture of Experts (MoE) столкнулось с техническими барьерами, однако NVIDIA смогла их преодолеть, используя подход co-design, сочетающий оптимизацию архитектуры и программного обеспечения. Сервер GB200 NVL72 на архитектуре Blackwell обеспечивает в 10 раз большую производительность, чем предыдущее поколение, благодаря объединению 72 чипов и 30 ТБ быстрой памяти. Программные инновации, такие как NVIDIA Dynamo и NVFP4, позволили эффективно распределить вычисления между GPU, повысив общую продуктивность. Тестирование на модели Kimi K2 Thinking показало, что Blackwell способен поддерживать развитие моделей MoE, которые становятся всё более востребованными.
Масштабирование ИИ-моделей имеет 1 запись событий в нашей базе.