HBM5 и HBM6: как революция в памяти изменит битву за ИИ-ускорители
Рост потребностей в ИИ-ускорителях обнажает кризис масштабируемости памяти HBM — Hanmi и Samsung формируют новую инфраструктуру, чтобы HBM5 и HBM6 обеспечили пропускную способность до 8 ТБ/с и ёмкость стеков в 120 ГБ. Эти стандарты не только ускорят вычисления, а перестроят баланс сил на рынке, определив, кто сможет конкурировать в эпоху экзафлопсных моделей.
Новые стандарты памяти HBM5 и HBM6: шаг вперёд в производстве ИИ-ускорителей
По данным Wccftech, в ближайшие годы ожидается масштабное обновление стандартов высокопроизводительной памяти HBM. Компания Hanmi представила первую широкую модель TC Bonders, предназначенную для производства следующих поколений — HBM5 и HBM6. Эти разработки уже находятся в стадии активной подготовки и станут частью технологической инфраструктуры, которая обеспечит выпуск следующих поколений ИИ-ускорителей от таких компаний, как NVIDIA и AMD.
Технологии для будущего: Wide TC Bonder
Новый Wide TC Bonder, который будет представлен на Semicon 2026 в Южной Корее, представляет собой оборудование, которое заменит гибридные бондеры (Hybrid Bonder) в производстве HBM-памяти. Эта технология уже сейчас обещает повысить производительность и качество выпускаемых чипов.
Ключевое преимущество Wide TC Bonders — возможность увеличения выхода годных чипов при производстве HBM4, HBM5 и HBM6. Это достигается за счёт применения продвинутой технологии точного соединения. Дополнительно внедрён метод fluxless bonding, который позволяет уменьшить толщину памяти и повысить прочность соединений без использования флюса.
HBM5: переход к следующему поколению
Согласно ожиданиям, HBM5 будет использоваться в следующих поколениях GPU, включая платформу NVIDIA Feynman, которая запланирована к выпуску в 2029 году. Новый стандарт сохранит скорость передачи данных на уровне 8 Гбит/с, но увеличит количество I/O-каналов до 4096, что обеспечит суммарную пропускную способность 4 ТБ/с на стек.
Важными характеристиками HBM5 станут:
- Скорость передачи данных: 8 Гбит/с
- Количество I/O-каналов: 4096
- Общая пропускная способность: 4 ТБ/с
- Количество слоёв памяти: 16-Hi
- Вместимость одного чипа: 40 Гбит
- Общая ёмкость стека: 80 ГБ
- Потребляемая мощность: 100 Вт
- Метод упаковки: Microbump (MR-MUF)
- Метод охлаждения: Immersion Cooling, Thermal Via (TTV), Thermal Bonding
- Встроенный чип для развязки
- Базовый чип с 3D NMC-HBM и кэш-памятью
- Интеграция LPDDR и CXL в базовый чип
HBM6: масштабирование и эффективность
Следующий шаг — HBM6, который предполагает значительное увеличение пропускной способности до 8 ТБ/с и ёмкости отдельного чипа до 48 Гбит. Это позволит создавать стеки памяти объёмом от 96 до 120 ГБ. Новый стандарт также включает переход к 20-Hi стекам памяти, что станет первым случаем такого масштаба.
Среди ключевых особенностей HBM6:
- Скорость передачи данных: 16 Гбит/с
- Количество I/O-каналов: 4096
- Общая пропускная способность: 8 ТБ/с
- Количество слоёв памяти: 16/20-Hi
- Вместимость одного чипа: 48 Гбит
- Общая ёмкость стека: 96/120 ГБ
- Потребляемая мощность: 120 Вт
- Метод упаковки: Bump-less Cu-Cu Direct Bonding
- Метод охлаждения: Immersion Cooling
- Многоуровневые HBM
- Интерпозиторы (Silicon+Glass)
- Встроенный коммутатор и Bridge Die
Перспективы внедрения
В 2026 году ожидается начало массового производства HBM4, а работы над HBM5 и HBM6 уже активно ведутся. Эти стандарты обещают не только улучшить параметры памяти, но и обеспечить более высокую энергоэффективность и надёжность. Такие улучшения особенно важны для NVIDIA, AMD и других участников рынка, которые разрабатывают новые поколения ускорителей для задач в области искусственного интеллекта и высокопроизводительных вычислений.
Подготовка инфраструктуры
Для обеспечения перехода на новые стандарты необходима модернизация производственной инфраструктуры. Компания Hanmi уже начала демонстрацию своих решений, что позволяет говорить о готовности рынка к переходу. Внедрение новых технологий позволит сократить время наладки и повысить стабильность выпуска продукции.

Промышленные ожидания
Увеличение ёмкости и скорости памяти HBM станет критически важным фактором для развития ИИ-ускорителей. Учитывая, что такие компании, как Samsung, уже начали серийное производство HBM4, можно ожидать, что переход на HBM5 и HBM6 будет происходить постепенно, но уверенно. Это, в свою очередь, повлияет на выборку компонентов у производителей, включая AMD и NVIDIA, которые будут адаптировать свои архитектуры под новые возможности.
Когда память становится стратегией: HBM5 и HBM6 как новый этап ИИ-инфраструктуры
Разработка стандартов HBM5 и HBM6 — это не только техническое обновление. Это ключевой элемент стратегии, которая формирует будущую ИИ-инфраструктуру. Компании, инвестирующие в производство и внедрение этих стандартов, формируют не только рынок памяти, но и архитектуру вычислений следующего поколения. Hanmi, представившая Wide TC Bonder, позиционирует себя как ключевой поставщик оборудования для производства HBM, что даёт ей влияние на цепочки поставок, включая NVIDIA и AMD [!].
Но главный интерес у этих компаний — не в памяти как таковой, а в том, чтобы обеспечить стабильность и масштабируемость своих ИИ-ускорителей. Чем больше пропускной способности и ёмкости они смогут интегрировать в свои чипы, тем больше задач искусственного интеллекта они смогут решать, и тем выше их рыночная доля в этом быстро растущем сегменте. Таким образом, HBM5 и HBM6 — это не только обновления, а стратегические элементы, позволяющие создать новую экосистему вычислений.
Важный нюанс: Внедрение новых стандартов памяти создаёт эффект домино: производители оборудования, чипов и системных решений становятся зависимыми друг от друга, что укрепляет позиции тех, кто первыми встанет на новую технологическую волну.
Кто выигрывает, а кто теряет: цепочка последствий
С появлением HBM5 и HBM6 выигрывают не только NVIDIA и AMD, но и их поставщики, такие как Samsung, уже серийно выпускающая HBM4. Увеличение ёмкости и производительности памяти даёт возможность создавать более мощные ИИ-ускорители, что, в свою очередь, усиливает их позиции на рынке. Но есть и те, кто теряет.
Технологии, такие как fluxless bonding и bump-less Cu-Cu Direct Bonding, требуют значительных инвестиций в переоснащение производств. Это означает, что мелкие производители и те, кто не успеет обновить инфраструктуру, рискуют остаться вне игры. Кроме того, переход на новые стандарты может снизить ценовую конкуренцию, так как узкие технологические барьеры ограничат доступ к рынку.
Ещё один важный момент — энергопотребление. Увеличение ёмкости и пропускной способности памяти неизбежно ведёт к росту энергопотребления. Это ставит перед производителями задачу разрабатывать более эффективные системы охлаждения и питания, что, в свою очередь, влияет на стоимость конечного продукта и его доступность. Методы охлаждения, такие как immersion cooling и thermal via (TTV), становятся критически важными элементами, позволяющими снизить тепловыделение и повысить надёжность систем [!].
Важный нюанс: Победителями в этой гонке станут не только те, кто создаёт новые чипы, но и те, кто обеспечивает их энергоэффективность и охлаждение. Это открывает возможности для компаний, работающих в смежных сегментах, таких как производители термических решений и систем охлаждения.
Парадоксы и противоречия: когда технологии создают новые риски
Одним из парадоксов внедрения HBM5 и HBM6 является то, что рост производительности и масштабируемости может привести к снижению гибкости. Чем больше слоёв в стеке памяти и чем выше пропускная способность, тем сложнее адаптировать оборудование под новые задачи. Это особенно критично для рынков, где требования быстро меняются, например, в области ИИ и машинного обучения.
Кроме того, переход к 20-Hi стекам памяти, как в HBM6, требует не только новых технологий, но и новых подходов к проектированию. Это создаёт риски для компаний, которые не успеют адаптироваться. Например, переход к bump-less Cu-Cu Direct Bonding может снизить надёжность соединений, если производственные процессы не будут тщательно контролироваться.
Существует и риск дублирования усилий. Разработка HBM5 и HBM6 происходит параллельно, что может привести к фрагментации рынка и увеличению издержек на переход. Это особенно важно для тех, кто инвестирует в производство оборудования и компонентов — им нужно быть уверенным, что их инвестиции не уйдут в никуда.
В конечном итоге, внедрение новых стандартов памяти — это не только вопрос технологий, но и вопрос стратегии. Компании, которые смогут быстро адаптироваться и интегрировать HBM5 и HBM6 в свои решения, получат значительное преимущество. Но те, кто будет действовать медленно или неадекватно оценит риски, могут потерять не только долю рынка, но и позиции в отрасли.
Санкции и глобальные цепочки поставок
Новые экспортные ограничения США, затронувшие Samsung и SK Hynix, создают дополнительные риски для глобальной инфраструктуры памяти. Эти компании теряют доступ к упрощённым процедурам поставок американского оборудования, что может замедлить обновление производств в Китае. Это, в свою очередь, снижает их конкурентоспособность на мировом рынке и ограничивает возможности для поставок передовых решений HBM5 и HBM6 в регионы с высоким спросом [!].
Такие меры усиливают роль других игроков, таких как TSMC, которая уже заключила контракты на производство 2-нм чипов с AMD и другими крупными заказчиками. В условиях ограниченного предложения мощностей, выбор AMD в пользу TSMC отражает её стратегию использования проверенных и надёжных партнёров для масштабного производства [!].
Дефицит и рыночные риски
Дефицит памяти в 2026 году привёл к росту цен на видеокарты и накопители, что заставило производителей пересматривать приоритеты выпуска моделей. Например, Asus пересмотрела производственные решения, а потребители столкнулись с ограниченным выбором и высокими ценами на премиум-устройства. Такая ситуация может затормозить переход на новые стандарты памяти, если производители не смогут обеспечить стабильные поставки компонентов [!].
Важный нюанс: Тем не менее, рост спроса на ИИ-инфраструктуру подогревает рынок полупроводников. В 2025 году выручка от логических устройств, включая оборудование NVIDIA, увеличилась на 39,9%. Это указывает на центральную роль NVIDIA в обеспечении инфраструктуры искусственного интеллекта, которая, в свою очередь, стимулирует рост рынка в целом [!].
Инфраструктурный бум и инвестиции в будущее
Инфраструктурный бум в сфере ИИ продолжает набирать обороты. Инвестиции в ИИ-инфраструктуру превысили $100 млрд, и NVIDIA видит в этом устойчивую тенденцию. Руководитель компании Дженсен Хуан подчеркивает, что рост инвестиций — это долгосрочный процесс, а не краткосрочный спринт, и спрос на ИИ-решения остается высоким из-за их новой полезности. По его словам, ИИ перешел от экспериментов к практическому применению, и процесс строительства инфраструктуры является крупнейшим в истории [!].
Важный нюанс: Такие инвестиции укрепляют позиции NVIDIA в цепочке поставок, особенно в контексте партнёрства с Intel, где стороны планируют создать x86-чипы для серверов с использованием технологии NVLink. Это сотрудничество создаёт условия для усиления конкурентного давления на AMD со стороны двух крупных игроков [!].
Заключение
HBM5 и HBM6 — это не только обновления стандартов памяти. Это стратегические элементы, которые формируют будущую ИИ-инфраструктуру. Они позволяют создавать более мощные ускорители, укрепляют позиции ключевых игроков рынка и формируют новые цепочки поставок. В то же время, переход на новые стандарты происходит не без рисков: он требует значительных инвестиций, повышает сложность производства и может снизить гибкость решений. Однако для тех, кто готов к этим вызовам, HBM5 и HBM6 представляют собой возможность занять лидирующие позиции в быстро меняющейся отрасли.
Источник: wccftech.com