Qualcomm запускает ИИ-чипы AI200 и AI250: борьба с Nvidia и AMD
Qualcomm анонсировала ИИ-чипы AI200 и AI250, запланированные к выпуску в 2026 и 2027 годах, которые используют NPU из смартфонов и отличаются объемом памяти 768 ГБ. Рост стоимости акций компании после анонса составил 15%, что указывает на изменение баланса сил на рынке вычислительных решений для ИИ.
По данным публичного сообщения, Qualcomm объявила о запуске собственной линейки чипов искусственного интеллекта. Модели AI200 и AI250 будут доступны в 2026 и 2027 годах соответственно. На фоне анонса стоимость акций компании выросла на 15%. Согласно оценкам, это событие меняет баланс сил на рынке вычислительных решений для ИИ.
ИИ-чипы Qualcomm
Разработка AI200 и AI250 направлена на выполнение задач, связанных с запуском уже обученных моделей, а не их тренировкой. Это отличает продукт от графических процессоров Nvidia и AMD, которые доминируют в сегменте обучения ИИ. Системы Qualcomm будут использовать Hexagon neural processing units (NPU) — компоненты, ранее применявшиеся в чипах для смартфонов.
Энергопотребление одной стойки с чипами компании составит 160 кВт, что соответствует аналогичным решениям конкурентов. При этом Qualcomm подчеркивает преимущество в энергоэффективности и совокупной стоимости владения. Ключевое техническое отличие — объем памяти: 768 ГБ против 512 ГБ у Nvidia и 576 ГБ у AMD.
Рыночные перспективы
Введение ИИ-чипов расширяет портфель Qualcomm, традиционно ориентированной на беспроводную связь и мобильные устройства. Решения компании будут конкурировать с графическими процессорами (GPU), используемыми в крупных дата-центрах. Для сравнения: системы с GPU могут включать до 72 чипов на один компьютер, что необходимо для работы с высокопроизводительными ИИ-моделями.
Стоимость отдельных чипов и максимальное количество NPU в стойке не раскрывается. Это ограничивает возможность точного сравнения с предложениями других производителей.
Технологическая стратегия
Подход Qualcomm к разработке опирается на адаптацию смартфонных технологий для серверных задач. Это снижает затраты на производство и упрощает масштабирование. Однако пока неясно, как компания решит проблему масштабируемости — например, поддержки распределенных вычислений в кластерах.
Интересно: Сможет ли переход от GPU к специализированным чипам вроде AI200 и AI250 снизить зависимость от лидеров рынка, если ключевые параметры, такие как стоимость и производительность, остаются закрытыми?

Qualcomm и новая гонка за ИИ-чипы: за кем будущее?
Технологический прорыв или стратегический риск?
Qualcomm объявляет о выходе на рынок ИИ-чипов, что само по себе необычно для компании, традиционно ориентированной на мобильные технологии. Однако ключевой инсайт заключается в том, что её решение основано на переиспользовании архитектуры Hexagon NPU, которая уже применялась в смартфонах. Это снижает затраты на разработку и позволяет быстрее масштабировать производство. Однако такой подход не без рисков: серверные задачи требуют иной масштабируемости, чем мобильные устройства. Например, пока неясно, как Qualcomm решит проблему поддержки распределённых вычислений в кластерах, что критично для крупных дата-центров.
Важный нюанс: Переход от смартфонных технологий к серверным решениям может снизить порог входа для новых игроков, но потребует значительных инвестиций в адаптацию инфраструктуры.
Баланс сил в секторе ИИ: кто выигрывает, а кто теряет?
Рынок ИИ-чипов давно доминируют Nvidia и AMD, чьи GPU обеспечивают высокую производительность для обучения моделей. Qualcomm же фокусируется на инференсе — применении уже обученных моделей. Это создаёт нишу, но не решает всех проблем. Например, объём памяти в 768 ГБ у AI200 превосходит конкурентов, но закрытые данные о стоимости и количестве NPU в стойке ограничивают возможность прямого сравнения. Для российских компаний, зависящих от импортных чипов, такой сдвиг может стать катализатором поиска альтернативных решений, хотя локальные производители пока не готовы конкурировать с глобальными гигантами.
Новые игроки на горизонте
Союз Intel и Nvidia, объявленный в сентябре 2025 года, создаёт дополнительные сложности для Qualcomm. Совместная разработка систем на кристалле (SoC), объединяющих x86-ядра Intel и RTX-ядра Nvidia, может существенно изменить баланс сил на рынке. Qualcomm, не предлагающий дискретные графические решения, столкнется с трудностями в конкуренции с новыми интегрированными продуктами, сочетающими в себе преимущества обоих лидеров. Это делает Qualcomm менее конкурентоспособным в сегменте высокопроизводительных решений, где интеграция CPU и GPU становится ключевым фактором [!].
Энергоэффективность как новая метрика конкуренции
Qualcomm подчёркивает преимущества в энергоэффективности, что особенно важно для дата-центров, где энергопотребление становится критическим фактором. Однако аналогичные показатели у Nvidia и AMD не уступают. Например, энергопотребление стойки с чипами Qualcomm — 160 кВт, что соответствует решениям конкурентов. Реальное преимущество может проявиться только при масштабировании: если Hexagon NPU действительно снизит общую стоимость владения, это изменит подход к архитектуре вычислений. Однако пока сложно оценить, насколько это повлияет на рынок, учитывая, что ключевые параметры остаются скрытыми.
Важный нюанс: Энергоэффективность становится не чисто технической задачей, а стратегическим рычагом, способным переформулировать правила конкуренции в сфере ИИ.
Долгосрочные последствия для рынка
Запуск AI200 и AI250 может запустить цепную реакцию: другие производители чипов (например, Intel или ARM) будут вынуждены ускорить разработки специализированных решений. Это повысит конкуренцию, но также увеличит риски для компаний, которые не смогут адаптироваться. Для российских игроков, зависящих от импортных компонентов, такой сценарий может создать дополнительные сложности, если глобальные поставщики начнут перераспределять ресурсы в пользу новых направлений.
Развитие HBM4 и интеграция с GPU
Важным трендом остаётся развитие памяти HBM4, которая становится ключевым элементом AI-инфраструктуры. Например, AMD планирует внедрить HBM4E в свои графические процессоры следующего поколения, включая семейство Instinct MI400, запланированное к выпуску в 2026 году. Текущая версия HBM4 обеспечит пропускную способность до 19,6 ТБ/с, а переход на HBM4E в 2027–2028 годах позволит ещё больше повысить эффективность вычислений. Это решение синхронизировано с развитием следующих поколений ускорителей, что делает его важным для рынка [!].
Регулирование и доступ к технологиям
США рассматривают возможность ограничения экспорта мощных чипов для ИИ, включая продукты Nvidia и AMD. В рамках законопроекта GAIN AI Act устанавливаются технические критерии для определения «продвинутых» процессоров и условия, которые производители должны соблюдать при их поставках за рубеж. Эти меры могут повлиять на доступность технологий для международных компаний, включая Qualcomm, и изменить динамику рынка [!].
Ключевой вывод: Qualcomm демонстрирует, что переход от смартфонных технологий к серверным решениям возможен, но успех зависит от умения решать масштабные технические задачи. Для рынка это может стать началом эры более конкурентных и энергоэффективных ИИ-чипов, но пока рано говорить о радикальных изменениях в балансе сил.
Источник: forbes.ru