HBM4: Гонка лидеров за AI-инфраструктурой
SK Hynix лидирует на рынке HBM4 с 62% доли в Q2 2025 года, начав тестирование 12-уровневых стеков с частотой 10 ГТ/с в марте 2025 года, а Micron увеличил долю до 21% в Q3 2025 года, запустив поставки HBM4-пробников с пропускной способностью 2,8 ТБ/с на стек. Samsung начал поставки HBM4-пробников NVIDIA в Q3 2025 года, но сталкивается с техническими проблемами, включая низкий выход годных чипов (65% в июле 2025 года).
По данным отраслевых отчетов, развитие генеративного ИИ перешло к новой фазе, где решающее значение приобретает пропускная способность памяти. Высокопроизводительная память HBM4, разработанная с применением 3D-стеков, может стать ключевым элементом для ускорения обучения моделей и сокращения времени обработки данных. Новая версия обещает удвоить пропускную способность по сравнению с HBM3, достигнув 2 ТБ/с на стек, и увеличить объем памяти до 64 ГБ на модуль. Это особенно важно для крупных GPU и акселераторов, где постоянная передача данных становится узким местом.
SK Hynix: лидер по объему и партнерству с NVIDIA
SK Hynix укрепляет позиции на рынке HBM, заняв 62% доли в Q2 2025 года. Компания первой начала тестирование HBM4 в марте 2025 года, демонстрируя 12-уровневые стеки с частотой 10 ГТ/с, что на 25% превышает базовый стандарт JEDEC. Это соответствует требованиям NVIDIA к GPU Blackwell, что делает SK Hynix вероятным поставщиком памяти для платформ Rubin и Blackwell в 2026 году.
Технология основана на пятом поколении 10-нм узла (1b DRAM), что обеспечивает высокую надежность стеков из 12 чипов. Масштабное производство HBM4 начнется после завершения сертификации, ожидаемой к началу 2026 года. В этом году 77% выручки компании приходится на HBM и связанные продукты, что подчеркивает зависимость от AI-сегмента.
Micron: ускоряющийся конкурент
Micron значительно нарастил долю на рынке HBM, достигнув 21% в Q3 2025 года. Компания начала поставки HBM4-пробников в июне 2025 года, достигнув скорости 11 Гб/с на пин и 2,8 ТБ/с на стек. По данным, объемы HBM2025 полностью распроданы, а 2026 год на 90% забронирован.
Ключевым партнером стал NVIDIA, который использует дуализацию поставщиков памяти. Это дает Micron возможность заполнить пробелы в случае недостатка объемов у SK Hynix. В 2026 году ожидается запуск массового производства HBM4, что поддержит спрос крупных облаков и производителей GPU.
Samsung: игра в догонялки
Samsung сталкивается с трудностями в гонке за HBM4. В отличие от SK Hynix и Micron, компания использовала передовые 1с DRAM-узлы (шестое поколение 10-нм) для HBM3E, что привело к проблемам с выходом годных чипов (65% в июле 2025 года). В Q3 2025 года Samsung начал поставки HBM4-пробников NVIDIA, но массовое производство намечено на первую половину 2026 года.
Партнерство с AMD и OpenAI может стать опорной точкой: в октябре 2025 года AMD заключила контракт на поставку MI450 GPU, где Samsung будет основным поставщиком HBM4. Однако технические сложности с термоменеджментом и дизайном базового чипа остаются критичными.
Интересно: Как изменится баланс сил в AI-индустрии, если SK Hynix сохранит монопольное положение в 2026 году, или Micron и Samsung смогут сократить разрыв в производстве HBM4?
Как HBM4 меняет баланс сил в AI-индустрии: три сценария будущего
Технологическая гонка как экономический катализатор
Развитие HBM4-памяти становится не просто техническим прорывом, а инструментом перераспределения рыночной власти. SK Hynix демонстрирует лидерство за счет раннего тестирования и стратегического партнерства с NVIDIA. Однако 77% выручки компании уже зависит от AI-сегмента, что делает ее уязвимой к колебаниям спроса. Micron, напротив, использует дуализацию поставщиков: его 21% доли на рынке HBM связаны с запасной позицией NVIDIA, что снижает риски монополизации. Samsung сталкивается с парадоксом: применение передовых 1с DRAM-узлов для HBM3E привело к падению выхода годных чипов до 65%, что замедляет переход на HBM4.
Важный нюанс: Технологические задержки Samsung не только отдают долю рынка конкурентам, но и усиливают зависимость AI-индустрии от двух компаний, что может спровоцировать рост цен на память в 2026 году.
Скрытые победители и проигравшие в экосистеме AI
Расширение возможностей HBM4 запускает цепную реакцию в смежных отраслях. AMD и OpenAI, заключив контракт с Samsung на поставку HBM4 для MI450 GPU, получают преимущества в борьбе с NVIDIA. Однако термоменеджмент и проблемы с дизайном чипов Samsung могут снизить производительность их решений. В облаках, таких как AWS и Microsoft Azure, рост пропускной способности памяти до 2 ТБ/с позволит оптимизировать стоимость обучения моделей, но только если поставщики HBM4 обеспечат стабильную логистику.
Проигравшими могут стать производители HBM3, чьи запасы останутся нереализованными. Например, компании, инвестирующие в HBM3E, столкнутся с необходимостью быстрого перехода на HBM4, что увеличит капитальные затраты.
Ключевой вывод: Ускорение перехода на HBM4 создает барьер входа для новых игроков, консолидируя рынок в пользу SK Hynix и Micron, но одновременно открывает ниши для специализированных решений в нишевых сегментах AI.
Риски и парадоксы масштабирования
Масштабное производство HBM4 связано с рисками, которые пока скрыты за оптимистичными прогнозами. У SK Hynix, несмотря на лидерство, высокая концентрация на NVIDIA делает компанию уязвимой к изменениям в стратегии заказчика. Micron, пытаясь сократить разрыв, сталкивается с необходимостью увеличения инвестиций в производственные мощности, что может снизить рентабельность. Samsung, пытаясь компенсировать задержки, использует более дорогие 1с DRAM-узлы, что повысит себестоимость HBM4.
Парадокс заключается в том, что стремление к максимальной пропускной способности памяти приводит к увеличению энергопотребления GPU, что противоречит целям экологической устойчивости. Например, Blackwell-архитектура NVIDIA требует 700 Вт, и интеграция HBM4 может вынудить производителей пересмотреть подходы к охлаждению и питанию систем.
Важный нюанс: Рост энергозатрат при использовании HBM4 может снизить привлекательность крупных AI-центров в регионах с высокими тарифами на электроэнергию, сдвинув баланс в пользу стран с дешевыми ресурсами.
Новые игроки и геополитические факторы
Развитие HBM4-инфраструктуры получает дополнительный импульс от стратегических партнерств. OpenAI, заключив соглашения с AMD, NVIDIA и Broadcom, закрепляет позиции ведущего потребителя вычислительных мощностей. В рамках контракта с AMD компания получит 6 ГВт мощности на базе MI450, что ускорит внедрение 2-нм чипов. Параллельно, соглашения с NVIDIA включают поставки Blackwell, что подчеркивает баланс между инновациями и надежностью.
Геополитические факторы также влияют на рынок. США и ОАЭ запустили партнерство, позволяющее NVIDIA поставлять передовые чипы в ОАЭ с контролем за их использованием. Это ограничивает доступ Китая к высокотехнологичным решениям, усиливая давление на локальные дата-центры. В Китае, в свою очередь, проверки поставок H20 и RTX 6000D могут вызвать задержки у крупных игроков, таких как ByteDance и Alibaba.
Ключевой вывод: Геополитическая конкуренция и стратегические альянсы формируют новые правила игры в AI-индустрии, где HBM4 становится не только техническим, но и политическим активом.