Сентябрь 2025   |   Обзор события   | 4

Micron и TSMC создают HBM4E для будущего AI

Micron объявил о сотрудничестве с TSMC для производства логических чипов HBM4E, что позволит разрабатывать специализированную память для задач искусственного интеллекта. Компания планирует запустить HBM4E в 2027 году, адаптируя его под вычислительные нагрузки и синхронизируя с выпуском новых поколений GPU от Nvidia и AMD.

ИСХОДНЫЙ НАРРАТИВ

Micron объявил о партнерстве с TSMC для производства базового логического чипа для следующего поколения памяти HBM4E. Решение было принято в рамках отчетности компании по итогам финансового квартала, завершившегося 23 сентября. Это сотрудничество открывает возможности для разработки специализированных решений памяти, ориентированных на задачи искусственного интеллекта.

Компания уже начала поставки ранних образцов HBM4 со скоростью передачи данных более 11 Гбит/с на вывод, обеспечивая до 2,8 ТБ/с пропускной способности. Заключены основные контракты на поставку HBM3E на 2026 год. Однако ключевым элементом стратегии стала передача TSMC задачи по производству стандартных и настраиваемых логических чипов HBM4E, что позволяет разрабатывать решения, адаптированные под конкретные вычислительные нагрузки.

Стратегия Micron: переход к настраиваемой памяти

В отличие от традиционного подхода, когда HBM предлагается как унифицированное решение, Micron предлагает клиентам возможность модификации логического чипа. Это может включать добавление SRAM, специализированных модулей сжатия данных или настройку сигнальных путей. Такой подход делает память более гибкой и позволяет оптимизировать ее под конкретные требования, особенно в области AI.

Аналогичная стратегия уже реализуется SK hynix, которая также рассматривает возможность настройки базовых чипов HBM4. Это направление становится все более важным, поскольку специализированная память обеспечивает более высокую прибыльность и лояльность клиентов. Особенно это актуально для производителей GPU, стремящихся к максимальной эффективности вычислений.

Роль HBM4E в развитии AI-инфраструктуры

Совпадение сроков появления HBM4E и следующих поколений графических процессоров делает это решение стратегически значимым. Новейшие GPU от Nvidia и AMD, запланированные к выпуску в 2026 году, будут использовать HBM4. В свою очередь, HBM4E, который Micron намерен запустить в производство в 2027 году, станет основой для следующих поколений — таких как Rubin Ultra от Nvidia и MI400 от AMD.

Nvidia планирует выпустить Rubin Ultra в 2027 году, который, согласно оценкам, будет поддерживать до 1 терабайта памяти и обеспечивать пропускную способность на уровне петабайт в секунду. AMD также развивает агрессивную стратегию: ее семейство Instinct MI400, запланированное к выпуску в 2026 году, получит HBM4 с пропускной способностью до 19,6 ТБ/с. В дальнейшем компания планирует переход на HBM4E, вероятно, в 2027 или 2028 году.

Перспективы внедрения HBM4E

Сотрудничество Micron с TSMC особенно важно в контексте масштабирования AI-инфраструктуры. Передача производства логических чипов на передовое производственное оборудование позволяет синхронизировать развитие HBM4E с потребностями следующих поколений ускорителей. Это открывает возможности для более широкого внедрения HBM в центрах обработки данных, где до сих пор доминируют DDR5 и LPDDR.

Micron уже расширил клиентскую базу HBM до шести, включая Nvidia. Работа с этой компанией включает также разработку LPDDR для серверов. Партнерство с TSMC подтверждает намерение Micron сделать HBM4E стандартом для AI-узлов в середине текущего десятилетия.

Стратегия Micron по переходу на настраиваемую память HBM4E и сотрудничество с TSMC указывают на стремление компании занять лидирующее положение в быстро развивающемся сегменте AI-инфраструктуры. Такой подход позволяет адаптировать решения под конкретные задачи и создает предпосылки для долгосрочной конкурентоспособности.

АНАЛИТИЧЕСКИЙ РАЗБОР

Перераспределение центров тяжести в AI-инфраструктуре

Союз Micron и TSMC вокруг HBM4E — это не просто технологическая сделка, а стратегический ход, который меняет баланс сил в отрасли. Micron, традиционно воспринимаемая как производитель памяти, переходит от роли поставщика к роли архитектора решений. Это важно, потому что AI требует не просто больших объемов памяти, но и её глубокой интеграции с логикой вычисления. В этом контексте HBM4E становится не просто памятью, а частью вычислительного узла.

Решение Micron передать TSMC производство логических чипов — это шаг, направленный на ускорение цикла разработки и синхронизацию с ритмом выпуска GPU. TSMC, обладая передовыми технологиями, способна обеспечить высокую точность и масштабируемость. Это позволяет Micron избежать рисков, связанных с инвестициями в собственное производство, и сосредоточиться на инженерных решениях. В свою очередь, TSMC получает стабильный заказ и возможность участвовать в формировании стандартов будущего.

Ключевая идея: Передача Micron задачи по производству логических чипов TSMC демонстрирует тенденцию к специализации в цепочке создания стоимости, где каждая компания занимает свою нишу — от проектирования до масштабного производства.

Конкуренция в формате экосистем

Современная конкуренция в сфере AI уже не сводится к отдельным продуктам. Она переходит в формат экосистем, где память, процессоры, охлаждение и программное обеспечение становятся взаимозависимыми элементами. Micron, работая с Nvidia и AMD, формирует вокруг себя техническую платформу, которая будет доминировать в следующем десятилетии. Это важно для российских игроков, так как аналоги таких решений пока не разработаны, а импортозамещение в этой области требует значительных инвестиций и времени.

HBM4E, запланированный к запуску в 2027 году, станет основой для таких продуктов, как Rubin Ultra и MI400. Эти GPU, в свою очередь, будут определять стандарты вычислений в облачных и исследовательских центрах. Таким образом, Micron не просто участвует в этом процессе — он становится его движущей силой, поскольку его решения будут использоваться в базовых компонентах будущих систем.

Главный вывод: HBM4E — это не просто поколение памяти, а ключевой элемент, который определит эффективность следующих поколений AI-ускорителей и, соответственно, всю экосистему вокруг них.

Системные последствия для рынка

Решение Micron указывает на рост значения настраиваемых решений в отрасли. В отличие от унифицированных продуктов, настраиваемые чипы позволяют улучшить производительность, снизить энергопотребление и адаптировать оборудование под конкретные задачи. Это особенно актуально для крупных игроков, таких как Google, Meta⋆ и Alibaba, которые разрабатывают собственные ускорители для внутренних нужд.

Для России такой тренд может создать дополнительные сложности, так как на рынке пока отсутствуют альтернативы, способные конкурировать с HBM4E. Это подчеркивает необходимость инвестиций в R&D и развитие собственных технологий памяти, особенно в контексте роста спроса на AI-инфраструктуру.

Тренд: Рост популярности настраиваемых чипов HBM4E указывает на переход от универсальных решений к специализированным, что повышает барьер входа для новых участников рынка и усиливает позиции лидеров.

Растущая конкуренция и новые игроки

В последние недели на рынке искусственного интеллекта наблюдается значительная активность. Например, компания Groq привлекла $750 млн инвестиций, что позволило оценить её в $6,9 млрд. Groq разрабатывает специализированные чипы для ИИ, отличные от традиционных GPU, и позиционирует их как альтернативу решениям Nvidia. Это указывает на рост числа игроков, пытающихся снизить зависимость от доминирующих брендов в этой сфере.

Кроме того, Nvidia продолжает укреплять свои позиции. В сентябре 2025 года компания приобрела пакет акций Intel на $5 млрд и объединила усилия для совместной разработки продуктов для центров обработки данных. В рамках сотрудничества Intel будет производить x86-процессоры для инфраструктурных платформ Nvidia, а также выпускать настольные чипы с графическими чиплетами RTX. Такой шаг позволяет Nvidia расширить влияние на рынке и усилить интеграцию своих решений в различные сегменты.

Дополнительно, в сентябре 2025 года стало известно о подготовке Nvidia к выпуску новой линейки видеокарт RTX 50 Super с памятью до 24 ГБ. Эти карты будут поддерживать задачи, связанные с искусственным интеллектом, и могут быть представлены уже в этом году. Такие шаги усиливают позиции Nvidia в сегменте потребительских и профессиональных решений.

Также стоит отметить, что компания Figure, занимающаяся разработкой роботов, привлекла $1 млрд инвестиций, что повысило её оценку до $39 млрд. Средства будут направлены на развитие AI-платформы и улучшение восприятия окружающей среды роботами. Развитие GPU-инфраструктуры, включая решения от Nvidia и Intel, играет ключевую роль в этом процессе.

Важный момент: Увеличение инвестиций в AI-инфраструктуру и рост числа новых игроков демонстрирует, что рынок находится в активной фазе развития. Для России это означает необходимость ускорения собственных разработок и поиска стратегических партнёров, чтобы не отставать от глобальных трендов.

Коротко о главном

HBM4E будет использоваться в следующих поколениях GPU от Nvidia и AMD

Новейшие графические процессоры Rubin Ultra и MI400, запланированные к выпуску в 2026–2027 годах, получат память HBM4 и HBM4E соответственно. Это делает HBM4E ключевым элементом будущей AI-инфраструктуры.

Micron поставляет HBM4 с пропускной способностью до 2,8 ТБ/с

Ранние образцы уже доступны, а контракты на поставку HBM3E на 2026 год заключены. Это демонстрирует прогресс компании в развитии высокопроизводительной памяти.

HBM4E может включать SRAM и модули сжатия данных

Micron предлагает клиентам возможность модификации логического чипа, что делает память более гибкой и адаптированной под специфические задачи, особенно в области искусственного интеллекта.

AMD запускает Instinct MI400 с HBM4 в 2026 году

Память обеспечит пропускную способность до 19,6 ТБ/с, а в дальнейшем компания планирует переход на HBM4E. Это укрепляет позиции AMD в сегменте высокопроизводительных вычислений.

Nvidia Rubin Ultra поддержит до 1 терабайта памяти HBM4E

Ожидается, что GPU обеспечит пропускную способность на уровне петабайт в секунду, что сделает его одним из самых мощных решений для AI-приложений.

Micron расширил клиентскую базу HBM до шести, включая Nvidia

Работа с ведущими производителями ускорителей подтверждает стратегию компании по усилению позиций в AI-инфраструктуре и переходу к настраиваемой памяти.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Цифровизация и технологии; Устройства и гаджеты; Комплектущие для ПК; Промышленность; Производство электроники

Оценка значимости: 4 из 10

Событие касается зарубежной технологической индустрии, и его влияние на российскую аудиторию косвенное. Оно затрагивает сферу высоких технологий и искусственного интеллекта, но не имеет прямого воздействия на экономику, политику или повседневную жизнь граждан России. Время воздействия и глубина последствий для страны остаются ограниченными, поскольку российские компании пока не указаны как участники или основные потребители технологии HBM4E.

Материалы по теме

⋆ Данная организация или продукт включены в список экстремистских в соответствии с решением суда, вступившим в законную силу. Деятельность запрещена на территории Российской Федерации на основании Федерального закона от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».