Nvidia ускоряет науку: ИИ дополняет моделирование, а не заменяет
Nvidia активно развивает применение искусственного интеллекта в высокопроизводительных вычислениях, позиционируя его как инструмент, дополняющий традиционное моделирование, а не заменяющий его. Компания внедряет решения для ускорения научных исследований, таких как Holoscan, BioNeMo и Apollo, а также расширяет возможности в области квантовых вычислений и заключает новые контракты на поставку суперкомпьютеров.
По данным The Register, Nvidia активно развивает направление применения искусственного интеллекта в высокопроизводительных вычислениях (HPC). Ian Buck, вице-президент и генеральный менеджер направления Hyperscale и HPC, подчеркнул, что в ближайшие один–два года AI станет повсеместным инструментом для научных вычислений.
Сегодня, по его словам, ИИ уже позволяет ускорить научные открытия, но его роль — не замена, а дополнение к традиционным методам моделирования. «AI — это статистика, машинное обучение. Он работает с вероятностями, а не с точными 64-битными числами», — объяснил он. Таким образом, вопрос «сможет ли ИИ заменить моделирование» был сформулирован неправильно. Nvidia рассматривает ИИ как один из инструментов, помогающих фокусироваться на наиболее перспективных направлениях исследований.
Технологии, ускоряющие науку
Компания уже внедрила ряд решений, включая Holoscan для обработки данных с датчиков, BioNeMo для разработки лекарств и Alchemi для вычислительной химии. В числе новых инструментов — Apollo, открытая серия моделей, предназначенных для ускорения промышленного проектирования. Nvidia интегрировала Apollo в программные комплексы Cadence, Synopsys и Siemens.
В квантовой сфере компания представила NVQLink — систему для соединения квантовых процессоров с Nvidia-базированными системами. Это позволяет создавать гибридные нагрузки, сочетающие квантовые и классические вычисления, на базе платформы CUDA-Q.
FP64 остаётся важным
Хотя ИИ способен ускорить научные исследования, он не отменяет необходимости моделирования. По мнению Buck, суперкомпьютеры должны быть эффективны в трёх аспектах: моделировании, ИИ и квантовых вычислениях. Это означает, что ускорители Nvidia должны поддерживать как низкоточные форматы, используемые в ИИ, так и высокоточные FP64, традиционные для научных вычислений.
Недавние изменения в архитектуре Blackwell вызвали вопросы в научном сообществе. Так, производительность FP64 в матричных вычислениях снизилась с 67 до 40–45 терафлопс. Однако, как пояснил Buck, векторная производительность FP64, более подходящая для некоторых научных нагрузок, выросла. Более того, в более поздних версиях, таких как Blackwell Ultra, часть ресурсов, ранее выделенных под FP64, была передана для улучшения работы с 4-битными форматами в задачах ИИ.
Это не означает, что Nvidia отступает от научного направления. Следующее поколение ускорителей, Rubin, будет включать устройства с разным соотношением форматов, а также специализированные чипы, такие как Rubin CPX, для ускорения работы с языковыми моделями.
Растущий интерес со стороны исследовательских лабораторий
В последние годы Nvidia заключила более 80 новых контрактов на поставку суперкомпьютеров, обеспечивающих 4500 экзафлопс вычислений на базе ИИ. Одним из последних проектов стал суперкомпьютер Horizon, который будет установлен в Texas Advanced Computing Center (TACC) и запущен в 2026 году. Он будет состоять из 4000 ускорителей Blackwell и 9000 процессоров Vera следующего поколения. В итоге система обеспечит 300 петафлопс FP64 и 80 экзафлопс вычислений на базе ИИ.
Интересно: Каким образом суперкомпьютеры, оптимизированные под ИИ, смогут сохранять высокую точность в научных вычислениях, где ошибки в миллиардной доле могут быть критичны?

Когда ИИ становится частью науки, а не её заменой
Ускорение без потери контроля
Nvidia продолжает расширять границы применения искусственного интеллекта в сфере высокопроизводительных вычислений (HPC), не отрицая при этом роли традиционных методов моделирования. Компания позиционирует ИИ как инструмент, а не как цель — и это важный момент. Научные исследования не теряют своей точности, но получают мощную поддержку в поиске направлений, которые заслуживают более глубокого изучения.
При этом стоит обратить внимание на то, как меняется архитектура ускорителей. В архитектуре Blackwell производительность FP64 — формата, используемого в традиционных научных вычислениях — снизилась. Однако это не означает, что компания отступает от научного направления. Векторная производительность FP64 выросла, что делает её более подходящей для определённых задач. Это указывает на то, что Nvidia адаптирует свои решения под реальные потребности, а не только следует трендам.
Важный нюанс: Современные ИИ-модели работают с вероятностями, а не с точными числами. Поэтому их роль в науке — не замена, а фильтр, который помогает выделить наиболее перспективные направления исследований.
Системные последствия: кто выигрывает, кто теряет
Внедрение ИИ в HPC не только ускоряет вычисления, но и меняет баланс между разными игроками рынка. Nvidia, обладая экосистемой, включающей в себя CUDA, библиотеки и интеграцию с ведущими инструментами проектирования (например, Cadence и Siemens), закрепляет за собой позиции лидера. Это создаёт зависимость: чем больше компаний внедряет решения Nvidia, тем труднее им перейти на альтернативные платформы.
Для российских организаций, работающих в сфере HPC, это может означать необходимость адаптации к новым реалиям. Если локальные решения пока не способны конкурировать с глобальными экосистемами, то сотрудничество с западными партнёрами становится не только удобным, но и стратегически важным. Однако это не исключает рисков, связанных с зависимостью от внешней инфраструктуры, особенно в условиях санкционного давления.
Важный нюанс: Рост спроса на ИИ-решения Nvidia усиливает давление на рынок памяти. Так, компания TSMC увеличила объёмы производства 3-нм техпроцесса, стимулируемого именно заказами Nvidia. Это связано с разработкой новых чипов Vera Rubin и Rubin Ultra, предназначенных для HPC и задач ИИ [!]. В свою очередь, дефицит оперативной памяти и увеличение её стоимости продолжают влиять на стоимость сборки серверов и ПК, что может ощущаться как у производителей, так и у конечных пользователей [!].
Третья волна: квантовые и гибридные вычисления
Одним из важных трендов становится интеграция ИИ с квантовыми вычислениями. Nvidia представила NVQLink — систему, позволяющую соединять квантовые процессоры с классическими системами. Это открывает путь к созданию гибридных вычислений, где каждая технология используется там, где она наиболее эффективна.
Такие шаги указывают на то, что будущее HPC — это не выбор между ИИ и квантовыми вычислениями, а их комбинация. Для бизнеса это означает, что инвестиции в ИИ сегодня могут стать основой для более сложных вычислений завтра. Однако, как и в случае с архитектурой Blackwell, переход к гибридным решениям требует пересмотра подходов к разработке и интеграции.
Квантовые вычисления не заменят классические, но будут их дополнять. Это создаёт новую экосистему, где победителями станут те, кто сможет эффективно комбинировать разные подходы. В этой связи стоит отметить, что китайская компания Chip Hub for Integrated Photonics Xplore разработала оптический квантовый чип, производительность которого, по утверждениям, превышает в тысячу раз возможности графических процессоров Nvidia при выполнении задач искусственного интеллекта [!]. Такие разработки могут повлиять на позиции Nvidia в области HPC, особенно в таких секторах, как авиакосмическая и финансовая индустрия.
Глобальные инфраструктурные изменения
Nvidia не ограничивается только ускорителями и алгоритмами. Компания активно участвует в формировании глобальной ИИ-инфраструктуры. Так, Microsoft запустила первый узел многоцентрового кластера для обучения моделей искусственного интеллекта, соединяющего дата-центры в Висконсине и Джорджии. В рамках этой архитектуры Fairwater используются графические процессоры GB200 NVL72 и коммутаторы Spectrum-XGS от Nvidia. Это решение позволяет соединять дата-центры на расстоянии 1000 километров и обеспечивать до 720 петафлопс вычислений [!].
Важный нюанс: Совместная разработка Nvidia и Intel включает использование интерфейса NVLink для повышения скорости передачи данных между процессорами и графическими чипами, что особенно важно для HPC и искусственного интеллекта. Intel будет производить x86-процессоры для инфраструктурных платформ Nvidia в центрах обработки данных, а также выпускать настольные чипы с элементами RTX [!]. Это сотрудничество направлено на усиление позиций обеих компаний в сегменте ускоренной вычислительной техники.
Долгосрочные перспективы
Интеграция ИИ в научные исследования и HPC меняет не только технические, но и экономические аспекты отрасли. Повышение затрат на охлаждение систем Nvidia, особенно в следующем поколении платформы Vera Rubin NVL144, где расходы на охлаждение вырастут на 17%, до 55 710 долларов, демонстрирует, что рост производительности требует соответствующих инвестиций в инфраструктуру [!]. Это создаёт дополнительные барьеры для входа новых игроков, укрепляя позиции уже существующих лидеров.
В долгосрочной перспективе российские и глобальные игроки столкнутся с необходимостью либо адаптироваться к доминирующим экосистемам, либо развивать собственные решения, способные конкурировать по масштабу и эффективности. В условиях ускоряющегося технологического прогресса, стратегическая гибкость и готовность к интеграции новых подходов станут ключевыми факторами успеха.
Источник: The Register