Microsoft представила чип Maia 200 для масштабного ИИ-инференса
Microsoft представила новый процессор Maia 200, предназначенный для масштабирования инференса крупных моделей искусственного интеллекта. Устройство обеспечивает производительность свыше 10 петафлопс при 4-битной точности и позиционируется как более эффективная альтернатива решениям Google и Amazon.
Microsoft представила новый чип Maia 200 для масштабирования ИИ-инференса
По данным TechCrunch, Microsoft объявила о запуске нового процессора — Maia 200. Компания описывает устройство как «кремниевый двигатель» для масштабирования инференса — процесса, при котором уже обученные модели искусственного интеллекта применяются к новым данным.
Чип Maia 200 следует за моделью Maia 100, выпущенной в 2023 году. Новая версия оснащена более чем 100 миллиардами транзисторов и способна обеспечивать производительность свыше 10 петафлопс при 4-битной точности и около 5 петафлопс при 8-битной. Эти показатели значительно превосходят характеристики предшественника.
Microsoft утверждает, что Maia 200 позволяет запускать самые крупные модели ИИ без потери производительности, а также оставляет запас для будущих, ещё более сложных архитектур. «На практике один узел Maia 200 может с лёгкостью обрабатывать самые масштабные модели, которые существуют сегодня, — говорится в заявлении компании. — При этом остаётся место для роста».
Растущая важность оптимизации инференса
С увеличением масштабов ИИ-бизнеса, затраты на инференс становятся значительной частью операционных расходов. В отличие от процесса обучения модели, который требует высоких вычислительных мощностей, инференс предполагает выполнение уже готовых алгоритмов.
В связи с этим растёт интерес к технологиям, позволяющим повысить эффективность. Компания Microsoft видит в Maia 200 один из таких инструментов. Новый чип, по словам разработчиков, снижает энергопотребление и уменьшает вероятность сбоев в работе ИИ-приложений.
Конкуренция в сфере кастомных чипов
Внедрение Maia 200 соответствует общей тенденции: крупные технологические компании всё чаще создают собственные чипы для ИИ. Такой подход позволяет снизить зависимость от сторонних поставщиков, в частности Nvidia, чьи графические процессоры остаются ключевыми для большинства ИИ-проектов.
Другие игроки рынка также разрабатывают собственные решения. Например, Google использует TPU — специализированные процессоры, доступные через облачные сервисы, но не поставляемые как отдельные чипы. Amazon представила Trainium3, обновлённую версию своего Trainium, — ИИ-ускорителя, который может заменять части нагрузки, обычно выполняемые Nvidia.
Microsoft позиционирует Maia 200 как конкурента этим решениям. В официальном коммюнике говорится, что Maia обеспечивает в три раза большую производительность в формате FP4 по сравнению с третьим поколением Trainium, а также превосходит седьмое поколение TPU Google в FP8.
Применение и доступность
Новый чип уже используется для поддержки ИИ-моделей, разрабатываемых командой Superintelligence Microsoft. Также Maia 200 задействован в работе Copilot — чат бота, встроенного в различные продукты компании.
Кроме того, Microsoft открыла доступ к SDK для Maia 200, приглашая разработчиков, учёных и лаборатории, занимающиеся передовыми исследованиями, интегрировать чип в свои проекты.

Внедрение Maia 200 подчёркивает стремление Microsoft к независимости в области ИИ-процессоров и укреплению позиций на рынке. В условиях роста требований к производительности и энергоэффективности, собственные чипы становятся стратегическим элементом, позволяющим снизить операционные издержки и ускорить развитие ИИ-проектов.
Когда ИИ становится вопросом чипов: стратегический шаг Microsoft в эпоху масштабной инфраструктуры
Собственные чипы как стратегический выбор
Microsoft с выходом чипа Maia 200 делает значительный шаг в сторону самодостаточности в сфере искусственного интеллекта. Новый процессор, ориентированный на инференс — этап, где обученные модели начинают обрабатывать данные в реальном времени, — не только улучшение техники, а элемент более широкой стратегии. Компания, ранее полагавшаяся на Nvidia, теперь делает ставку на собственное оборудование, чтобы снизить операционные расходы и усилить контроль над технологическим процессом.
Maia 200 содержит более 100 миллиардов транзисторов и обеспечивает производительность свыше 10 петафлопс при 4-битной точности и около 5 петафлопс при 8-битной. Эти параметры превосходят предыдущие поколения, а также позволяют эффективно работать с самыми крупными ИИ-моделями. Важно отметить, что чип уже используется в проектах Superintelligence и встроенных ИИ-ассистентах, таких как Copilot, что подчеркивает его практическую значимость.
Важный нюанс: Стоит учитывать, что Maia 200 пока недоступен как отдельный продукт — разработчики могут использовать его через SDK, но не получить физический чип. Это ограничивает его влияние за пределами экосистемы Microsoft и делает его, в отличие от Nvidia, менее универсальным решением.
Конкуренция за ИИ-инфраструктуру
Рынок ИИ-ускорителей переживает фазу активного развития. Google с TPU, Amazon с Trainium3 и теперь Microsoft с Maia 200 — все эти игроки делают ставку на собственные чипы. Это не случайность. Когда ИИ становится неотъемлемой частью бизнес-процессов, зависимость от внешних поставщиков становится риском. Особенно это касается Nvidia, чьи GPU остаются де-факто стандартом для большинства ИИ-проектов.
Microsoft с Maia 200 пытается не только уменьшить эту зависимость, но и предложить альтернативу, которая, по её словам, превосходит конкурентов. Утверждения о производительности в форматах FP4 и FP8 — это не только цифры. Это попытка показать, что Microsoft готова брать на себя роль лидера в сфере инференса.
Важный нюанс: Microsoft активно инвестирует в дата-центры. В 2025 году расходы компании на этот сектор приблизились к 400 миллиардам долларов, а к 2026 году прогнозируется рост до 500 миллиардов [!]. Эти инвестиции подтверждают масштаб стратегии компании — не только создание чипов, но и инфраструктуры, которая позволит масштабировать ИИ-проекты.
Энергетические и инфраструктурные вызовы
Рост энергопотребления в сфере ИИ становится критическим фактором. По оценке Чжан Лэя, главы Envision Group, искусственный интеллект может стать крупнейшим потребителем энергии в истории, и его потребление может вырасти в десять раз за 50 лет [!]. Это ставит новые задачи для энергосистемы и требует развития возобновляемых источников.
Maia 200, по утверждению Microsoft, снижает энергопотребление и уменьшает вероятность сбоев в работе ИИ-приложений. Это особенно важно, учитывая, что даже такие крупные игроки, как Nvidia, сталкиваются с проблемами дефицита NAND-памяти, вызванными масштабными проектами вроде ICMS [!]. Появление чипов вроде Maia 200 может временно снизить нагрузку на NAND-память, но в долгосрочной перспективе рост ИИ-инфраструктуры всё равно будет создавать дефицит ресурсов.
Локальный контекст: что это значит для российского бизнеса?
Для российских компаний, заинтересованных в ИИ, появление Maia 200 может стать поводом пересмотреть стратегию. Если раньше выбор сводился к Nvidia и другим зарубежным поставщикам, то теперь появляется третий путь — попытаться работать внутри экосистемы тех, кто создал свои чипы. Но для этого нужно быть частью этой экосистемы, иметь доступ к соответствующему ПО и, что самое важное, — быть готовым к переходу на новую архитектуру.
Тем не менее, для большинства российских ИТ-проектов, особенно малых и средних, это пока неактуально. В ближайшие годы основной драйвер останется в стороне от создания собственных чипов — речь пойдёт о более доступных решениях, оптимизации использования существующих процессоров и развитии облачных сервисов.
Важный нюанс: В долгосрочной перспективе, когда ИИ станет частью критически важных инфраструктурных решений, зависимость от внешних поставщиков может привести к риску. Это уже не вопрос моды, а вопрос безопасности и устойчивости.
Стратегические сдвиги в отрасли
Nvidia, в свою очередь, также меняет фокус. Вместо продажи отдельных GPU компания делает ставку на системные решения, такие как Vera Rubin и NVL72, которые объединяют GPU, CPU, DPU и коммутаторы в единые блоки [!]. Это позволяет снизить стоимость инференса и упростить внедрение для клиентов. Такой подход отражает смещение от продажи отдельных ускорителей к комплексным системам в быстро растущем сегменте центров обработки данных.
В этой конкуренции Microsoft с Maia 200 делает стратегический шаг от зависимости от сторонних поставщиков к самодостаточности в ИИ-инфраструктуре. Этот шаг не только экономически выгоден, но и даёт компании возможность формировать будущее ИИ-индустрии.
Источник: TechCrunch