Qualcomm раскрывает новые ускорители AI200 и AI250 для генеративного ИИ
Компания Qualcomm анонсировала выпуск двух новых ускорителей для задач ИИ — AI200 и AI250, которые будут поставляться в 2026 и 2027 годах соответственно и конкурировать с решениями AMD и Nvidia, предлагая высокую эффективность и снижение эксплуатационных расходов при выполнении масштабных задач генеративного ИИ. AI200 будет оснащен 768 Гб памяти, использовать интерфейсы PCIe и Ethernet, потреблять 160 кВт и поддерживать конфиденциальное вычисление, а AI250 добавит архитектуру вычисления в близости к памяти и функцию распределенного инференса, что повысит пропускную способность и производительность.
По данным отраслевых источников, Qualcomm объявил о планах выпуска двух новых ускорителей для задач ИИ — AI200 и AI250, которые поступят в продажу в 2026 и 2027 годах соответственно. Эти устройства будут конкурировать с решениями в масштабе стойки от AMD и Nvidia, предлагая более высокую эффективность и снижение эксплуатационных расходов при выполнении масштабных задач генеративного ИИ.
Qualcomm AI200 станет первой системой уровня данных, построенной на ускорителях AI200. Она будет оснащена 768 Гб LPDDR-памяти, что является высоким объемом для ускорителя вывода. Для масштабирования система использует интерфейсы PCIe и Ethernet. Энергопотребление стойки составит 160 кВт, что делает это решение необычно энергоемким для инференс-систем. Также будет поддерживаться конфиденциальное вычисление для корпоративных развертываний.
Следующая версия — AI250 — будет выпущена в 2027 году. В отличие от AI200, она добавит архитектуру вычисления в близости к памяти, что увеличит эффективную пропускную способность памяти более чем в 10 раз. Также будет поддерживаться функция распределенного инференса, позволяющая динамически распределять вычислительные и памятные ресурсы между картами. Qualcomm позиционирует AI250 как более эффективное и высокопроизводительное решение, оптимизированное для больших трансформерных моделей.
Помимо аппаратных решений, Qualcomm разрабатывает программную платформу, оптимизированную для масштабного вывода. Она будет поддерживать основные инструменты машинного обучения и генеративного ИИ, включая PyTorch, ONNX, vLLM, LangChain и CrewAI. Платформа также будет включать поддержку распределенного обслуживания, конфиденциального вычисления и функцию быстрой загрузки предварительно обученных моделей.
Однако один ключевой аспект, который не раскрыл Qualcomm, — это процессоры, которые будут использоваться в системах AI200 и AI250. Ранее компания начала разработку собственных серверных ЦП. Хотя часть работы над микросхемами, возможно, была выполнена командой Nuvia, полноценная разработка займет как минимум до 2028 года. Таким образом, AI200, вероятно, будет использовать процессоры на архитектуре ARM или x86.
Интересно: Какие процессоры будут использоваться в системах AI200 и AI250, и как это повлияет на выбор клиентов между решениями Qualcomm и конкурентами?

Qualcomm вступает в гонку за масштабный ИИ: что это значит для рынка?
Война за ИИ переходит в новую фазу
Введение Qualcomm в рынок масштабных ИИ-систем AI200 и AI250 — это стратегический шаг в условиях растущего спроса на вычислительные мощности для генеративного ИИ. Компания позиционирует свои решения как более энергоэффективные и экономически привлекательные для крупномасштабных задач. Однако истинная цель — захватить долю рынка, которую до сих пор контролируют AMD и Nvidia.
Ключевой аргумент Qualcomm — это поддержка распределенного инференса и архитектура вычисления в близости к памяти в AI250. Это позволяет снизить задержки и увеличить пропускную способность, что особенно важно для больших трансформерных моделей. Но важно понимать: такая техническая эффективность может стать конкурентным преимуществом только при условии, что решения будут легко интегрироваться в существующую ИТ-инфраструктуру клиентов. Для этого необходима сильная экосистема — и Qualcomm явно на это рассчитывает.
Важный нюанс: Qualcomm не раскрыла, какие процессоры будут использоваться в AI200 и AI250. Это оставляет вопрос о том, насколько автономны эти системы и насколько они будут зависеть от архитектур ARM или x86.
Скрытые игроки и неочевидные последствия
Одним из неочевидных победителей может стать рынок программного обеспечения. Qualcomm активно развивает собственную платформу для вывода, которая поддерживает PyTorch, ONNX и другие популярные инструменты. Это снижает барьер входа для разработчиков и позволяет быстрее адаптировать модели к новому железу. Однако, если экосистема будет закрытой или ограничена, это может вызвать сопротивление со стороны крупных пользователей, предпочитающих гибкость и мультивендорность.
Также стоит обратить внимание на сегмент конфиденциального вычисления. Qualcomm делает акцент на его поддержке, что особенно важно для корпоративных клиентов. Это может стимулировать рост спроса на решения, позволяющие обрабатывать данные без их передачи в облака. В долгосрочной перспективе это может изменить подходы к развертыванию ИИ-моделей в приватных средах, что особенно актуально для российского рынка.
Важный нюанс: Рост интереса к конфиденциальным вычислениям может ускорить развитие локальных ИИ-решений, что особенно значимо для бизнеса, ограниченного в доступе к международным технологическим решениям.
Парадоксы и риски для рынка
Несмотря на агрессивные заявления, у Qualcomm есть серьезные ограничения. Компания не имеет собственных серверных процессоров, и хотя она начала их разрабатывать, полноценная реализация ожидается не ранее 2028 года. Это означает, что AI200 и AI250 будут использовать чужие процессоры, что снижает степень контроля над архитектурой и может повлиять на производительность. В условиях, когда каждая наносекунда задержки имеет значение, это может стать слабым местом.
Кроме того, энергопотребление AI200 — 160 кВт на стойку — выше, чем у многих конкурентов. Это противоречит общей тенденции снижения энергоемкости ИИ-систем. Возможно, Qualcomm делает ставку на компромисс между мощностью и масштабируемостью, но для клиентов это может означать дополнительные затраты на охлаждение и энергоснабжение.
Важный нюанс: Высокое энергопотребление AI200 может стать препятствием для внедрения в регионы с ограниченными ресурсами, включая части России.
Новые вызовы на горизонте
Сейчас рынок сталкивается с новыми вызовами, которые могут повлиять на позиции Qualcomm. Например, NVIDIA и Intel объединили усилия, создавая системы-на-чипе, которые сочетают x86-ядра Intel и графические ядра RTX NVIDIA. Это может существенно изменить баланс сил, особенно в сегменте высокопроизводительных решений, где интеграция CPU и GPU становится ключевым фактором [!]. Qualcomm, не предлагающий дискретные графические решения, столкнется с трудностями в конкуренции с новыми интегрированными продуктами.
Кроме того, рост затрат на производство чипов может стать серьезным барьером. Переход на более мелкие узлы, такие как 3nm и N2, увеличивает стоимость производства на 20–50%. Это особенно критично для Qualcomm, которая, как и другие игроки, будет вынуждена переложить часть этих затрат на конечных потребителей [!].
Важно также учитывать ограничения в поставках материалов. Китай ввел новые экспортные меры, затрагивающие поставки редкоземельных элементов и полупроводникового оборудования. Это может повлиять на производство чипов, используемых в AI-устройствах, включая оборудование Qualcomm и её конкурентов [!].
Выводы
Qualcomm вступает в гонку за масштабным ИИ с амбициозными планами, но рынок становится всё сложнее. Конкуренция усиливается, а производственные и логистические барьеры растут. Успех компании в этой сфере будет зависеть не только от технических характеристик AI200 и AI250, но и от её способности адаптироваться к новым реалиям рынка, включая интеграцию с экосистемой, снижение энергопотребления и обеспечение стабильности поставок.