Январь 2026   |   Обзор события   | 7

DeepSeek представил Engram — новую методологию для оптимизации памяти в ИИ

Компания DeepSeek представила новую методологию Engram, которая позволяет ИИ-моделям эффективнее использовать системную память для хранения и извлечения информации, снижая нагрузку на вычисления. Технология показала улучшение результатов в задачах на логику и знания, а её внедрение может снизить зависимость от дорогой высокопроизводительной памяти и повысить производительность крупных моделей.

ИСХОДНЫЙ НАРРАТИВ

DeepSeek представил новую методологию для работы с контекстом в ИИ

По данным Tomshardware, компания DeepSeek опубликовала техническую статью, в которой описывает новую методологию, позволяющую ИИ-моделям эффективнее использовать системную память для хранения и извлечения информации. Названная Engram, эта технология основана на использовании условной памяти, что позволяет снизить нагрузку на вычисления и повысить производительность при обработке длинных контекстов.

В отличие от традиционных подходов, где модель должна каждый раз вычислять ответ, Engram позволяет сохранять часто используемую информацию в статической памяти. Это освобождает GPU от необходимости выполнять дорогостоящие вычисления для каждого запроса, что особенно важно в условиях дефицита высокопроизводительной памяти (HBM).

Engram работает с N-граммами — последовательностями слов, которые встраиваются в нейронную сеть и сохраняются в отдельной базе данных. Это позволяет модели запрашивать информацию напрямую, без необходимости её пересчитывать. Такой подход особенно полезен для задач, требующих долгого контекста, где классические модели могут терять точность.

Снижение зависимости от HBM и оптимизация использования памяти

В текущем состоянии, большинство ИИ-ускорителей всё ещё полагается на HBM, которая отличается высокой пропускной способностью, но и высокой стоимостью. Компании, такие как Huawei, не могут избежать этой зависимости, особенно с ростом спроса на такие ресурсы.

Engram предлагает альтернативу, позволяя использовать более доступные стандарты памяти, такие как CXL. Это снижает нагрузку на HBM, позволяя ей быть резервированной только для сложных вычислений. Таким образом, Engram может стать важным инструментом для оптимизации работы с памятью в крупных ИИ-моделях.

Сравнение с KVCache и особенности внедрения

В отличие от KVCache, который используется, например, в решениях Nvidia, и сохраняет контекст в краткосрочной памяти, Engram предлагает более стабильное и долгосрочное хранение информации. Если KVCache похож на запись заметок, то Engram — это как хранение целой энциклопедии.

Для внедрения Engram в модель используются хэширование и гейтинг. Хэширование позволяет сжимать токены и уменьшать объём словаря, а гейтинг — убеждаться, что контекст соответствует запросу. Такой подход обеспечивает точность и предотвращает ошибки при извлечении данных.

Результаты тестирования и перспективы

DeepSeek протестировала Engram на модели с 27 миллиардами параметров и сравнила её с традиционной моделью Mixture of Experts (MoE). В задачах, требующих знаний, Engram показала на 3,4–4 пункта лучшие результаты, а в задачах на логику — на 3,7–5 пунктов. Особенно высокая точность была достигнута в тесте NIAH (Needle in a Haystack), где Engram достигла 97% против 84,2% у модели MoE.

Эксперты отмечают, что если Engram будет внедрена в коммерческие модели, это может значительно снизить зависимость от HBM и улучшить производительность ИИ-систем. DeepSeek уже рассматривает возможность внедрения Engram в следующую версию своей модели — Deepseek V4.

Возможные последствия для отрасли

Если метод Engram докажет свою эффективность в реальных условиях, он может стать важным шагом в развитии ИИ. Он позволяет использовать системную память более эффективно и снижает зависимость от дорогостоящих решений. Это особенно важно для российских и глобальных компаний, которые ищут способы оптимизации затрат и повышения производительности ИИ-систем.

Интересно DeepSeek оценивает, что Engram может стать базовой технологией для будущих разреженных моделей. Внедрение этой методологии может изменить подход к архитектуре ИИ-моделей, особенно в условиях роста потребности в обработке длинных контекстов.

АНАЛИТИЧЕСКИЙ РАЗБОР

Как Engram меняет парадигму ИИ: от вычислений к хранению

Новая методология Engram, представленная DeepSeek, не просто улучшает производительность ИИ-моделей — она ставит под сомнение устоявшиеся подходы к архитектуре ИИ. Вместо того чтобы полагаться исключительно на вычисления, Engram предлагает использовать системную память для хранения и извлечения информации, что снижает зависимость от дорогой HBM и открывает путь к более экономичным и масштабируемым решениям.

От вычисления к хранению: новый подход к ИИ

Традиционно ИИ-модели пересчитывают ответ при каждом запросе, что требует значительных вычислительных ресурсов. Это делает такие системы зависимыми от дорогостоящей памяти, такой как HBM, и ограничивает их масштабируемость. Engram предлагает альтернативу: вместо пересчёта, модель обращается к статически сохранённой информации, как к внутренней базе знаний. Это снижает нагрузку на GPU и позволяет использовать более доступные виды памяти, такие как CXL [!].

Такой подход особенно актуален в условиях дефицита HBM, который остро ощущается в 2026 году. Производители, такие как Samsung и SK hynix, перераспределяют мощности в пользу HBM4, но сроки выхода этой памяти в серийное производство сдвинулись [!]. Это создаёт напряжённость на рынке и вынуждает компании искать альтернативы. Engram может стать таким решением, позволяя снизить зависимость от HBM и оптимизировать использование памяти [!].

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Стратегический сдвиг для глобальных игроков

Для компаний, сталкивающихся с ограничениями в доступе к западным технологиям, Engram — это стратегический выход из технологической зависимости. Например, Huawei, которая активно развивает собственные ИИ-решения, может использовать Engram для оптимизации своих моделей и повышения их конкурентоспособности. В 2026 году ожидается выход обновлённой версии DeepSeek R2, что может усилить позиции компании на глобальном рынке [!].

С другой стороны, производители HBM, такие как Samsung и SK hynix, могут столкнуться с падением спроса на свою продукцию. Это может снизить их рыночную долю и вынудить искать альтернативные направления развития. В свою очередь, глобальные инвесторы уже пересматривают стратегии вложений, увеличивая внимание к китайскому рынку, где DeepSeek выделяется как один из новых лидеров [!].

Технические сложности и возможности

Хотя Engram выглядит обещающе, её внедрение не лишено сложностей. Хранение информации в отдельной базе данных требует тщательного управления: необходимо обеспечить точность извлечения, избежать ошибок и поддерживать актуальность данных. Это похоже на то, как библиотека должна постоянно обновлять свои каталоги и обеспечивать доступ к нужным книгам. Если система не будет правильно «запоминать» и «вспоминать», это может привести к снижению качества ответов.

Кроме того, внедрение Engram требует изменения подхода к проектированию моделей. Разработчики должны не просто создать новую архитектуру, но и обучить модель эффективно использовать внешнюю память. Это может потребовать дополнительных усилий на этапе обучения и тонкой настройки параметров.

Долгосрочные последствия

Если Engram докажет свою эффективность в реальных условиях, она может стать частью следующего поколения ИИ-моделей. Это особенно важно для задач, требующих обработки длинных контекстов, где классические модели теряют точность. Такой подход может изменить не только технические аспекты, но и бизнес-модели: компании смогут создавать более производительные ИИ-системы с меньшими затратами на оборудование.

Для российских игроков, столкнувшихся с ограничениями в доступе к западным технологиям, Engram может стать важным инструментом для оптимизации ИИ-инфраструктуры. Это открывает путь к созданию более автономных и экономически эффективных решений, что особенно ценно в условиях текущих вызовов.

Контекст: глобальные тренды и вызовы

Engram — это не просто техническое улучшение. Это часть более широкой тенденции, которая наблюдается в отрасли: переход от увеличения мощности вычислений к умению эффективно использовать память. Это меняет парадигму и открывает новые возможности для оптимизации моделей.

В 2025 году DeepSeek представила модель R1, которая показала, что новые лаборатории могут выпускать конкурентоспособные продукты за гораздо меньшие деньги. Это вызвало сомнения в необходимости миллиардных вложений для создания следующего поколения искусственного интеллекта [!]. В 2026 году компания продолжает развивать этот подход, предлагая решения, которые могут быть внедрены с меньшими затратами и с высокой производительностью.

Заключение

Engram демонстрирует, что будущее ИИ может лежать не только в увеличении мощности вычислений, но и в умении эффективно использовать память. Это меняет парадигму и открывает новые возможности для оптимизации моделей. Для глобальных игроков, включая Huawei и DeepSeek, это может стать стратегическим преимуществом. Для российского бизнеса — это шанс создать более автономные и экономически эффективные решения.

Коротко о главном

Как Engram отличается от традиционных подходов к хранению контекста?

В отличие от подходов, где модель каждый раз пересчитывает ответ, Engram сохраняет часто используемую информацию в статической памяти, что снижает нагрузку на GPU и улучшает производительность при обработке длинных контекстов.

Как Engram снижает зависимость от высокопроизводительной памяти (HBM)?

Engram позволяет использовать более доступные стандарты памяти, такие как CXL, вместо дорогой HBM, резервируя её только для сложных вычислений, что снижает общие затраты на оборудование.

Какие результаты показала Engram в тестировании?

В тестах на модели с 27 миллиардами параметров Engram показала на 3,4–5 пунктов лучшие результаты, чем традиционная модель MoE, особенно в задачах с длинным контекстом, где достигла 97% точности против 84,2%.

Как Engram сравнивается с KVCache?

В отличие от KVCache, который хранит контекст в краткосрочной памяти, Engram обеспечивает долгосрочное и стабильное хранение информации, сравнимое с хранением данных в энциклопедии, а не в заметках.

Какие технологии используются для внедрения Engram?

Для внедрения Engram применяются хэширование и гейтинг. Хэширование сжимает токены, а гейтинг обеспечивает точность извлечения данных, предотвращая ошибки при поиске информации.

Какие планы у DeepSeek по внедрению Engram?

DeepSeek рассматривает внедрение Engram в следующую версию своей модели — Deepseek V4, что может улучшить производительность и снизить затраты на использование дорогостоящей памяти.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Бизнес; Цифровизация и технологии

Оценка значимости: 7 из 10

Представление технологии Engram связано с развитием искусственного интеллекта, что затрагивает несколько сфер — техническую, экономическую и научно-технологическую. Учитывая, что речь идёт о снижении зависимости от дорогостоящей памяти HBM и повышении эффективности ИИ, это может быть важно для российских компаний.

Материалы по теме

Huawei и ИИ: как китайские бренды бросают вызов Apple на глобальном рынке

Использование DeepSeek в виртуальном ассистенте Xiaoyi Huawei подчёркивает стратегическое значение этой технологии для укрепления позиций китайского бренда на глобальном рынке, особенно в условиях технологической конкуренции с Apple. Это усиливает тезис о том, что Engram может стать стратегическим инструментом для компаний, стремящихся к технологической независимости.

Подробнее →
ИИ-бум 2025: рекордные инвестиции, сомнения инвесторов и борьба за доверие

Представление модели R1 DeepSeek с высокой производительностью при меньших затратах служит аргументом в пользу снижения зависимости от масштабных инвестиций в ИИ. Это поддерживает ключевую идею текста о том, что Engram может стать частью более экономичной и эффективной парадигмы ИИ.

Подробнее →
Китайский ИИ-рынок привлекает глобальных инвесторов: рост, IPO и риски

Рост влияния DeepSeek на инвестиционной арене, включая внимание глобальных инвесторов к азиатскому рынку, усиливает аргумент о стратегическом значении Engram для перераспределения технологического и финансового влияния в пользу Китая.

Подробнее →
Китайские ИИ-модели DeepSeek и Alibaba усиливают давление на западных конкурентов

Ожидаемый выход обновлённой версии DeepSeek R2 в 2026 году используется как доказательство устойчивого развития и технологического прорыва компании, что подкрепляет тезис о её растущем влиянии на глобальном рынке ИИ и потенциале Engram как конкурентоспособного решения.

Подробнее →
Nvidia ускоряет HBM4: Samsung, SK hynix и Micron пересматривают планы

Сдвиг сроков выхода HBM4 и напряжённость на рынке памяти подчёркивают актуальность Engram как альтернативы, снижающей зависимость от дорогой памяти. Это усиливает тезис о том, что новая архитектура может стать решением в условиях дефицита и высоких цен на HBM.

Подробнее →
Дефицит памяти: видеокарты редеют, цены растут, рынок в напряжении

Дефицит памяти и рост цен на видеокарты как следствие усиливают аргумент о практической необходимости Engram — архитектуры, которая позволяет минимизировать зависимость от традиционной памяти и снизить затраты на оборудование.

Подробнее →