Октябрь 2025   |   Обзор события   | 6

Qualcomm раскрывает новые ускорители AI200 и AI250 для генеративного ИИ

Компания Qualcomm анонсировала выпуск двух новых ускорителей для задач ИИ — AI200 и AI250, которые будут поставляться в 2026 и 2027 годах соответственно и конкурировать с решениями AMD и Nvidia, предлагая высокую эффективность и снижение эксплуатационных расходов при выполнении масштабных задач генеративного ИИ. AI200 будет оснащен 768 Гб памяти, использовать интерфейсы PCIe и Ethernet, потреблять 160 кВт и поддерживать конфиденциальное вычисление, а AI250 добавит архитектуру вычисления в близости к памяти и функцию распределенного инференса, что повысит пропускную способность и производительность.

ИСХОДНЫЙ НАРРАТИВ

По данным отраслевых источников, Qualcomm объявил о планах выпуска двух новых ускорителей для задач ИИ — AI200 и AI250, которые поступят в продажу в 2026 и 2027 годах соответственно. Эти устройства будут конкурировать с решениями в масштабе стойки от AMD и Nvidia, предлагая более высокую эффективность и снижение эксплуатационных расходов при выполнении масштабных задач генеративного ИИ.

Qualcomm AI200 станет первой системой уровня данных, построенной на ускорителях AI200. Она будет оснащена 768 Гб LPDDR-памяти, что является высоким объемом для ускорителя вывода. Для масштабирования система использует интерфейсы PCIe и Ethernet. Энергопотребление стойки составит 160 кВт, что делает это решение необычно энергоемким для инференс-систем. Также будет поддерживаться конфиденциальное вычисление для корпоративных развертываний.

Следующая версия — AI250 — будет выпущена в 2027 году. В отличие от AI200, она добавит архитектуру вычисления в близости к памяти, что увеличит эффективную пропускную способность памяти более чем в 10 раз. Также будет поддерживаться функция распределенного инференса, позволяющая динамически распределять вычислительные и памятные ресурсы между картами. Qualcomm позиционирует AI250 как более эффективное и высокопроизводительное решение, оптимизированное для больших трансформерных моделей.

Помимо аппаратных решений, Qualcomm разрабатывает программную платформу, оптимизированную для масштабного вывода. Она будет поддерживать основные инструменты машинного обучения и генеративного ИИ, включая PyTorch, ONNX, vLLM, LangChain и CrewAI. Платформа также будет включать поддержку распределенного обслуживания, конфиденциального вычисления и функцию быстрой загрузки предварительно обученных моделей.

Однако один ключевой аспект, который не раскрыл Qualcomm, — это процессоры, которые будут использоваться в системах AI200 и AI250. Ранее компания начала разработку собственных серверных ЦП. Хотя часть работы над микросхемами, возможно, была выполнена командой Nuvia, полноценная разработка займет как минимум до 2028 года. Таким образом, AI200, вероятно, будет использовать процессоры на архитектуре ARM или x86.

Интересно: Какие процессоры будут использоваться в системах AI200 и AI250, и как это повлияет на выбор клиентов между решениями Qualcomm и конкурентами?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Qualcomm вступает в гонку за масштабный ИИ: что это значит для рынка?

Война за ИИ переходит в новую фазу

Введение Qualcomm в рынок масштабных ИИ-систем AI200 и AI250 — это стратегический шаг в условиях растущего спроса на вычислительные мощности для генеративного ИИ. Компания позиционирует свои решения как более энергоэффективные и экономически привлекательные для крупномасштабных задач. Однако истинная цель — захватить долю рынка, которую до сих пор контролируют AMD и Nvidia.

Ключевой аргумент Qualcomm — это поддержка распределенного инференса и архитектура вычисления в близости к памяти в AI250. Это позволяет снизить задержки и увеличить пропускную способность, что особенно важно для больших трансформерных моделей. Но важно понимать: такая техническая эффективность может стать конкурентным преимуществом только при условии, что решения будут легко интегрироваться в существующую ИТ-инфраструктуру клиентов. Для этого необходима сильная экосистема — и Qualcomm явно на это рассчитывает.

Важный нюанс: Qualcomm не раскрыла, какие процессоры будут использоваться в AI200 и AI250. Это оставляет вопрос о том, насколько автономны эти системы и насколько они будут зависеть от архитектур ARM или x86.

Скрытые игроки и неочевидные последствия

Одним из неочевидных победителей может стать рынок программного обеспечения. Qualcomm активно развивает собственную платформу для вывода, которая поддерживает PyTorch, ONNX и другие популярные инструменты. Это снижает барьер входа для разработчиков и позволяет быстрее адаптировать модели к новому железу. Однако, если экосистема будет закрытой или ограничена, это может вызвать сопротивление со стороны крупных пользователей, предпочитающих гибкость и мультивендорность.

Также стоит обратить внимание на сегмент конфиденциального вычисления. Qualcomm делает акцент на его поддержке, что особенно важно для корпоративных клиентов. Это может стимулировать рост спроса на решения, позволяющие обрабатывать данные без их передачи в облака. В долгосрочной перспективе это может изменить подходы к развертыванию ИИ-моделей в приватных средах, что особенно актуально для российского рынка.

Важный нюанс: Рост интереса к конфиденциальным вычислениям может ускорить развитие локальных ИИ-решений, что особенно значимо для бизнеса, ограниченного в доступе к международным технологическим решениям.

Парадоксы и риски для рынка

Несмотря на агрессивные заявления, у Qualcomm есть серьезные ограничения. Компания не имеет собственных серверных процессоров, и хотя она начала их разрабатывать, полноценная реализация ожидается не ранее 2028 года. Это означает, что AI200 и AI250 будут использовать чужие процессоры, что снижает степень контроля над архитектурой и может повлиять на производительность. В условиях, когда каждая наносекунда задержки имеет значение, это может стать слабым местом.

Кроме того, энергопотребление AI200 — 160 кВт на стойку — выше, чем у многих конкурентов. Это противоречит общей тенденции снижения энергоемкости ИИ-систем. Возможно, Qualcomm делает ставку на компромисс между мощностью и масштабируемостью, но для клиентов это может означать дополнительные затраты на охлаждение и энергоснабжение.

Важный нюанс: Высокое энергопотребление AI200 может стать препятствием для внедрения в регионы с ограниченными ресурсами, включая части России.

Новые вызовы на горизонте

Сейчас рынок сталкивается с новыми вызовами, которые могут повлиять на позиции Qualcomm. Например, NVIDIA и Intel объединили усилия, создавая системы-на-чипе, которые сочетают x86-ядра Intel и графические ядра RTX NVIDIA. Это может существенно изменить баланс сил, особенно в сегменте высокопроизводительных решений, где интеграция CPU и GPU становится ключевым фактором [!]. Qualcomm, не предлагающий дискретные графические решения, столкнется с трудностями в конкуренции с новыми интегрированными продуктами.

Кроме того, рост затрат на производство чипов может стать серьезным барьером. Переход на более мелкие узлы, такие как 3nm и N2, увеличивает стоимость производства на 20–50%. Это особенно критично для Qualcomm, которая, как и другие игроки, будет вынуждена переложить часть этих затрат на конечных потребителей [!].

Важно также учитывать ограничения в поставках материалов. Китай ввел новые экспортные меры, затрагивающие поставки редкоземельных элементов и полупроводникового оборудования. Это может повлиять на производство чипов, используемых в AI-устройствах, включая оборудование Qualcomm и её конкурентов [!].

Выводы

Qualcomm вступает в гонку за масштабным ИИ с амбициозными планами, но рынок становится всё сложнее. Конкуренция усиливается, а производственные и логистические барьеры растут. Успех компании в этой сфере будет зависеть не только от технических характеристик AI200 и AI250, но и от её способности адаптироваться к новым реалиям рынка, включая интеграцию с экосистемой, снижение энергопотребления и обеспечение стабильности поставок.

Коротко о главном

Какие характеристики у системы Qualcomm AI200?

AI200 будет оснащена 768 Гб LPDDR-памяти, использовать интерфейсы PCIe и Ethernet для масштабирования, а энергопотребление стойки составит 160 кВт, что делает её необычно энергоемкой для инференс-систем.

Какие улучшения предлагает Qualcomm AI250?

AI250 получит архитектуру вычисления в близости к памяти, увеличивающую пропускную способность более чем в 10 раз, а также функцию распределенного инференса для динамического распределения ресурсов между картами.

Какую программную платформу разрабатывает Qualcomm?

Платформа будет поддерживать PyTorch, ONNX, vLLM и другие инструменты, включать распределённое обслуживание, конфиденциальное вычисление и функцию быстрой загрузки предварительно обученных моделей.

Почему не раскрыт тип процессоров для AI200 и AI250?

Qualcomm не раскрыл, какие процессоры будут использоваться, так как разработка собственных серверных ЦП, возможно, ещё не завершена, а полноценное внедрение может занять до 2028 года.

Какие архитектуры могут использоваться в AI200?

AI200, вероятно, будет использовать процессоры на архитектуре ARM или x86, так как собственные серверные ЦП от Qualcomm ещё не готовы к применению в этих системах.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Устройства и гаджеты

Оценка значимости: 6 из 10

Объявление Qualcomm о новых ускорителях ИИ касается глобального рынка технологий и косвенно затрагивает Россию, поскольку развитие таких решений влияет на доступность и стоимость ИИ-оборудования в стране. Событие имеет региональное влияние, так как затрагивает несколько сфер — технологии, экономику и науку. Время воздействия среднесрочное, так как речь идет о выпуске продукции в 2026–2027 годах. Последствия не являются критичными для российской аудитории, но могут отразиться на отраслевых решениях и выборе отечественных компаний.

Материалы по теме

NVIDIA и Intel создают мощный альянс: рынок чипов меняется

Союз Intel и NVIDIA создаёт новые интегрированные чипы, которые угрожают позициям Qualcomm на рынке системных решений. Информация о более тесной интеграции CPU и GPU используется как ключевой аргумент, подчеркивающий слабость Qualcomm в сегменте дискретных графических решений и её снижение конкурентоспособности.

Подробнее →
Цена чипов взлетит на 50%: как это ударит по геймерам и производителям

Рост затрат на производство чипов при переходе на 3nm и N2 узлы становится важным ограничением для Qualcomm. Эти данные подчеркивают, что компания столкнётся с экономическими сложностями, которые могут снизить её способность конкурировать с другими игроками, особенно в условиях высокой стоимости передовых технологий.

Подробнее →
Новые ограничения Китая на экспорт редкоземельных элементов и полупроводникового оборудования

Экспортные ограничения Китая на редкоземельные элементы и оборудование могут затруднить производство чипов, включая те, что используются в AI-устройствах Qualcomm. Эта информация используется для усиления аргумента о росте логистических и производственных барьеров, которые могут повлиять на стратегию компании.

Подробнее →
NVIDIA и Intel объединяют CPU и GPU: 5 млрд на AI-революцию

Стратегия NVIDIA и Intel по созданию SoC с объединённой памятью и NVLink-интерфейсом создаёт дополнительную угрозу для Qualcomm. Эти данные подчеркивают, что Qualcomm отстает в архитектурных инновациях, что может сделать её менее конкурентоспособной в будущем.

Подробнее →
Nvidia добивается успеха с 4-битным форматом NVFP4

Представление NVIDIA формата NVFP4 и его эффективность в обучении ИИ-моделей демонстрирует техническое лидерство компании. Эта информация используется для контраста с позицией Qualcomm, которая пока не раскрыла технические детали своих решений, что вызывает вопросы о её готовности к конкуренции.

Подробнее →
AMD готовит прорыв в AI: 2-нм ускорители Instinct MI450 обогнют NVIDIA

AMD готовится к выпуску 2-нм AI-ускорителей, что указывает на ускорение технологической гонки. Эта информация используется как контекст для сравнения с Qualcomm, подчеркивая, что компания пока не предлагает аналогичных решений и может отставать в переходе на более мелкие техпроцессы.

Подробнее →