Февраль 2026   |   Обзор события   | 4

Энергоэффективная память против HBM: как LPDDR6X изменит экономику AI-вычислений

Рост потребностей в вычислениях для ИИ вынуждает производителей искать баланс между производительностью и энергоэффективностью. Samsung и Qualcomm делают ставку на LPDDR6X — память, которая обещает снизить затраты и повысить эффективность чипов для обработки задач ИИ, конкурируя с более дорогой и энергоемкой HBM.

ИСХОДНЫЙ НАРРАТИВ

Новые разработки в области памяти и их роль в будущем вычислений

По данным Wccftech, Samsung уже начал отправлять образцы следующего поколения LPDDR6X-памяти, включая Qualcomm. Это событие указывает на ускорение разработок в области энергоэффективной памяти, которая может стать ключевым элементом в создании новых решений для искусственного интеллекта.

Samsung завершил разработку LPDDR6-памяти, которая должна выйти в массовое производство в конце 2026 года. Новая память обеспечивает начальную скорость передачи данных в 10,7 Гбит/с и на 21% более эффективна, чем LPDDR5. В будущем ожидается появление улучшенных версий с пропускной способностью свыше 14,4 Гбит/с.

LPDDR6X, является более продвинутой версией LPDDR6, пока не имеет окончательных спецификаций, утверждённых JEDEC. Однако ожидается, что информация появится в текущем году. Эта память расширит возможности DRAM, сохранит при этом энергоэффективность и снизит стоимость.

Интеграция в решения Qualcomm

Образцы LPDDR6X уже поступили в Qualcomm, где их, вероятно, будут использовать в чипе AI250 — следующем поколении процессоров для задач искусственного интеллекта. Ранее компания выпустила AI200, также работающий на LPDDR-памяти. Эти чипы предназначены для обработки задач инференса, что делает их близкими по функционалу к GPU Intel, основанным на архитектуре Xe3P.

Хотя такие компании, как Nvidia, AMD, Huawei и другие, используют память HBM, этот тип DRAM требует значительных энергозатрат, сложного производства и, как следствие, более высокой стоимости. LPDDR, напротив, требует меньше энергии и позволяет снизить общие расходы, что делает её привлекательной для разработки экономичных решений в области искусственного интеллекта.

AI200 уже предусматривает объём памяти до 768 ГБ, а в AI250, как ожидается, LPDDR6X будет использоваться в объёмах свыше 1 ТБ. Это указывает на рост масштабов памяти, необходимой для современных вычислений.

Поскольку LPDDR6X пока не вышла в массовое производство, ожидается, что её появление произойдёт не ранее конца 2027 или начала 2028 года. В это время Samsung продолжает тестирование и оптимизацию технологии, а Qualcomm, вероятно, будет готов к интеграции нового стандарта в свои решения.

Таблица: Сравнение характеристик LPDDR6 и HBM

ПоказательLPDDR6HBM
Скорость10,7 Гбит/сВыше LPDDR6
ЭнергоэффективностьНа 21% выше LPDDR5Ниже LPDDR6
СтоимостьНизкаяВысокая
ОбъёмДо 1 ТБ (AI250)Высокий
ПрименениеAI-чипы, мобильные устройстваСерверы, высокопроизводительные вычисления

Уже сейчас можно констатировать, что переход на LPDDR6 и его развитие в LPDDR6X откроет новые возможности для производителей чипов, особенно в сегменте AI. Решения, основанные на этой памяти, позволят снизить затраты и повысить энергоэффективность, что особенно важно для рынка, где растёт спрос на вычислительные мощности.

АНАЛИТИЧЕСКИЙ РАЗБОР

Как LPDDR6X меняет экономику и стратегию разработки AI-чипов

Рост стоимости памяти и её влияние на рынок

Рынок оперативной памяти переживает значительные колебания: дефицит компонентов и рост спроса со стороны сегмента искусственного интеллекта привели к резкому увеличению цен. Например, стоимость SSD от Samsung выросла вдвое, а услуги по упаковке и тестированию чипов, таких как у Powertech и Walton, подскочили на 30% [!]. Это давление на цепочку поставок усиливает позиции Samsung, которая благодаря стабильности, масштабируемости и технологическим преимуществам становится ключевым поставщиком DRAM для AI-инфраструктуры [!].

В таких условиях переход на LPDDR6X становится не просто техническим шагом, а стратегическим решением. Эта память позволяет снизить энергопотребление на 21% по сравнению с LPDDR5X и достигает скорости 10,7 Гбит/с [!]. Для компаний, таких как Qualcomm, это открывает возможность создавать более экономичные решения, особенно в сегменте инференса, где важнее масштаб, чем максимальная скорость.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Стратегия Qualcomm и её позиционирование в AI-рынке

Qualcomm активно развивает AI-чипы, включая AI200 и AI250, которые ориентированы на задачи инференса. Эти устройства используют NPU, адаптированные из смартфонов, и обеспечивают объем памяти до 768 ГБ и выше [!]. Интеграция LPDDR6X в AI250 — это ключевой элемент стратегии компании, позволяющий снизить затраты и повысить энергоэффективность. Это особенно важно, учитывая, что Qualcomm конкурирует с такими игроками, как Nvidia и AMD, которые фокусируются на GPU для тренировки ИИ.

Получение образцов LPDDR6X от Samsung позволяет Qualcomm ускорить разработку AI250, а также укрепить свои позиции на рынке, где спрос на ИИ-чипы растёт экспоненциально. Рост акций Qualcomm на 15% после анонса AI200 и AI250 демонстрирует, что рынок оценил потенциал этих решений [!].

Samsung: одновременное развитие LPDDR и HBM

Samsung играет центральную роль в формировании будущей архитектуры памяти. Компания не только ускоряет разработку LPDDR6 и LPDDR6X, но и активно развивает HBM4, который станет основой для следующего поколения GPU и AI-чипов. Samsung первой прошла тестирование HBM4 и получит статус сертифицированного поставщика, что подтверждает её лидерство в этой области [!].

Однако, развитие LPDDR6X не исключает HBM. Наоборот, эти технологии дополняют друг друга, создавая двухуровневую систему памяти. LPDDR6X будет использоваться в сегментах, где важна энергоэффективность и стоимость, а HBM — в задачах с высокими требованиями к пропускной способности. Samsung уже участвует в масштабных поставках памяти для AI-инфраструктуры, включая проекты OpenAI и Microsoft [!].

Влияние LPDDR6X на экосистему и будущее вычислений

Внедрение LPDDR6X меняет не только экономику, но и подход к разработке AI-чипов. Эта память позволяет создавать более доступные решения, что особенно важно для рынков с ограниченными ресурсами. Кроме того, переход на LPDDR6X снижает зависимость от HBM, который требует сложного производства и высоких затрат. Это создаёт пространство для альтернативных решений, особенно в сегментах, где решающее значение имеет не только производительность, но и стоимость владения.

Для Qualcomm переход на LPDDR6X — это стратегический манёвр, позволяющий ускорить развитие AI-чипов и удерживать позиции на рынке. Для Samsung — это возможность укрепить свои позиции как ключевого поставщика DRAM и HBM, а также расширить рынок, где LPDDR6X может вытеснить HBM в определённых сценариях.

Перспективы и выводы

Сейчас LPDDR6X находится в стадии тестирования, и его массовое производство ожидается не ранее 2028 года. Это даёт компаниям время на подготовку, но также создаёт неопределённость в краткосрочной перспективе. Для производителей чипов, таких как Qualcomm, это период, когда нужно решить, стоит ли инвестировать в переход на новый стандарт или продолжать использовать LPDDR5.

Для рынка в целом переход на LPDDR6X — это не просто техническая новость, а начало нового этапа в архитектуре вычислений, где эффективность и экономичность становятся такими же важными, как и производительность. Samsung и Qualcomm уже показывают, как это может работать на практике, а развитие LPDDR6X станет важным элементом в формировании будущей экосистемы AI.

Коротко о главном

Почему Qualcomm получает образцы LPDDR6X-памяти?

Образцы LPDDR6X уже поступили в Qualcomm, чтобы быть использованными в чипе AI250 — следующем поколении процессоров для задач искусственного интеллекта, что указывает на ускорение интеграции новой памяти в AI-решения.

Какова ожидаемая пропускная способность LPDDR6X?

В будущем LPDDR6X может достичь скорости передачи данных свыше 14,4 Гбит/с, что делает её более продвинутой по сравнению с LPDDR6, хотя окончательные спецификации пока не утверждены JEDEC.

Почему LPDDR6X предпочтительнее HBM для AI-чипов?

LPDDR6X обеспечивает высокую энергоэффективность и снижение затрат, в отличие от HBM, который требует больше энергии, сложного производства и имеет высокую стоимость, что делает её более привлекательной для экономичных AI-решений.

Когда ожидается массовое появление LPDDR6X?

Массовое производство LPDDR6X, вероятно, начнётся не ранее конца 2027 или начала 2028 года, поскольку Samsung продолжает тестирование и оптимизацию технологии перед её внедрением в промышленных масштабах.

Какой объём памяти будет использоваться в AI250?

В чипе AI250 ожидается использование LPDDR6X в объёмах свыше 1 ТБ, что демонстрирует рост требований к объёму памяти в современных AI-решениях.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Цифровизация и технологии; Устройства и гаджеты; Комплектущие для ПК; Передовые технологии

Оценка значимости: 4 из 10

Событие касается зарубежной технической инновации, которая пока не влияет напрямую на российскую аудиторию. Масштаб аудитории ограничен сферой высоких технологий, где интерес к новой памяти ограничен узким кругом специалистов. Время воздействия пока не определено, так как технологии находятся в стадии разработки и будут внедряться в будущем. Оно затрагивает одну-две сферы — технологии и, частично, экономику. Последствия пока незначительны, так как речь идёт о будущих возможностях, а не о текущих изменениях.

Материалы по теме

Дефицит памяти растёт: почему китайские производители не спасут рынок

Утверждение о Samsung как ключевом поставщике DRAM для AI-инфраструктуры подкрепляется её исторически доказанной стабильностью, масштабируемостью и технологическими преимуществами, что особенно важно в условиях дефицита памяти и роста цен. Это укрепляет её позиции как надёжного партнёра в цепочке поставок для Qualcomm и других компаний.

Подробнее →
Цены на память взлетают: виноват ИИ и загруженные мощности

Рост цен на услуги упаковки и тестирования чипов у Powertech и Walton на 30% подчёркивает давление на цепочку поставок, усиливая позиции Samsung как ключевого игрока, способного справляться с высоким спросом на память для ИИ. Это создаёт контекст для стратегического выбора Qualcomm в переходе на LPDDR6X.

Подробнее →
Samsung представит LPDDR6 и SSD PM9E1: новые технологии для ИИ и гейминга

Снижение энергопотребления LPDDR6X на 21% и скорость до 10,7 Гбит/с делает эту память стратегически выгодной для Qualcomm, особенно в сегменте инференса, где энергоэффективность и стоимость играют ключевую роль. Эти параметры формируют основу для её интеграции в AI250.

Подробнее →
Qualcomm запускает ИИ-чипы AI200 и AI250: борьба с Nvidia и AMD

Информация о том, что Qualcomm использует NPU из смартфонов в AI200 и AI250, а также данные о 768 ГБ памяти и росте акций на 15% после анонса, подчёркивают стратегический успех компании и её позиционирование как серьёзного конкурента Nvidia и AMD. Это также даёт контекст для оценки влияния LPDDR6X на их дальнейшую разработку.

Подробнее →
Nvidia ускоряет HBM4: Samsung, SK hynix и Micron пересматривают планы

Факт, что Samsung первой прошла тестирование HBM4 и получит статус сертифицированного поставщика, подчёркивает её технологическое лидерство и способность участвовать в высокопроизводительных решениях. Это дополняет её роль в обеспечении экосистемы памяти, где LPDDR6X и HBM4 работают в синергии.

Подробнее →
Дефицит памяти: AI забирает ресурсы у потребительских устройств

Масштабные поставки Samsung памяти для AI-инфраструктуры, включая OpenAI и Microsoft, демонстрируют её центральную роль в формировании будущей архитектуры памяти. Это усиливает её позиции как ключевого игрока, способного одновременно развивать LPDDR6X и HBM.

Подробнее →