Февраль 2026   |   Обзор события   | 4

OpenAI делает ставку на Cerebras: скорость против зависимостей

OpenAI делает решительный шаг в сторону диверсификации ИИ-инфраструктуры, запуская первую модель на чипах Cerebras — это снижает зависимость от Nvidia и ускоряет обработку кода в 15 раз по сравнению с предыдущей версией. Такой прорыв усиливает позиции OpenAI в гонке за скоростью инференса, перекладывая баланс сил в борьбе за лидерство в сфере автоматизации программирования.

ИСХОДНЫЙ НАРРАТИВ

Открытие нового направления в ИИ-разработке: OpenAI запускает модель на чипах Cerebras

По данным Ars Technica, OpenAI представила первую модель, которая работает на чипах, отличных от тех, что производит Nvidia. Речь идёт о кодогенерирующей модели GPT-5.3-Codex-Spark, запущенной на процессорах Cerebras. Согласно информации, модель способна обрабатывать более 1000 токенов в секунду, что в 15 раз превышает скорость предыдущей версии. В сравнении, Claude Opus 4.6 от Anthropic в режиме повышенной скорости работает в 2.5 раза быстрее, чем в обычном режиме, но при этом остаётся более мощной моделью.

Совместная работа с Cerebras позволила OpenAI расширить возможности своих платформ. Это подтверждает Sachin Katti, руководитель направления вычислений в OpenAI, который отметил: «Cerebras оказался отличным инженерным партнёром, и мы рады добавить быструю инференцию как новую платформенную функцию».

Codex-Spark доступен в виде исследовательской версии для подписчиков ChatGPT Pro (200 долларов в месяц) через приложение Codex, интерфейс командной строки и расширение VS Code. OpenAI также предоставляет API-доступ ограниченным партнёрам. Модель имеет окно контекста в 128 000 токенов и на старте поддерживает только текст.

Ускорение и специализация: что нового в Codex-Spark

Разработка Codex-Spark является продолжением работы над более крупной моделью GPT-5.3-Codex. В то время как полная версия предназначена для сложных задач автоматизации кодирования, Spark оптимизирован под скорость, а не глубину знаний. Модель построена исключительно на текстовых данных и настроена для выполнения задач, связанных с программированием, в отличие от более универсальной GPT-5.3.

На двух бенчмарках, оценивающих способность к программированию — SWE-Bench Pro и Terminal-Bench 2.0, — Spark, по данным OpenAI, превосходит предыдущую версию GPT-5.1-Codex-mini, выполняя задачи в значительно сокращённые сроки. Однако компания не предоставила независимую проверку этих утверждений.

Несмотря на обещания, в прошлом Codex демонстрировал проблемы с производительностью. Например, в тесте, где четыре ИИ-агента строили клон игры Minesweeper, Codex потребовал вдвое больше времени, чем Claude Code от Anthropic.

Конкуренция ускоряется, а OpenAI делает ставку на инфраструктуру

Скорость в 1000 токенов в секунду — это значительный скачок по сравнению с предыдущими решениями OpenAI, работающими на чипах Nvidia. Согласно независимым бенчмаркам от Artificial Analysis, самые быстрые модели OpenAI на Nvidia не превышают 167 токенов в секунду. Например, GPT-4o работает на уровне 147 токенов в секунду, а GPT-4o mini — около 52.

Однако для Cerebras показатель в 1000 токенов в секунду остаётся ниже возможностей чипов компании. В тестах, проведённых Cerebras, Llama 3.1 70B достигает 2100 токенов в секунду, а модель gpt-oss-120B от OpenAI — 3000 токенов в секунду. Это указывает на то, что более низкая скорость Codex-Spark может быть обусловлена сложностью модели и дополнительными вычислительными накладными расходами.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Снижение зависимости от Nvidia

Инфраструктурная стратегия OpenAI также претерпевает изменения. Модель Codex-Spark работает на чипе Wafer Scale Engine 3 от Cerebras, который стал центральным элементом бизнеса компании с 2022 года. Партнёрство между OpenAI и Cerebras было объявлено в январе, и Codex-Spark стал первой продукцией, вышедшей из этого сотрудничества.

OpenAI активно снижает зависимость от Nvidia. В октябре 2025 года компания подписала многолетнее соглашение с AMD, в ноябре — заключила $38 млрд-соглашение с Amazon по облачным вычислениям. Кроме того, OpenAI разрабатывает собственный чип для ИИ, который планируется производить у TSMC.

Планировавшийся $100 млрд-договор с Nvidia пока не реализован, хотя компания обещала $20 млрд инвестиций. Согласно информации из Reuters, OpenAI столкнулось с недостаточной скоростью некоторых чипов Nvidia для задач инференса — именно такая нагрузка и была ключевой при создании Codex-Spark.

В условиях высокой конкуренции, особенно со стороны Anthropic, OpenAI ускоряет обновления Codex. В декабре была выпущена GPT-5.2, а совсем недавно — GPT-5.3-Codex. Такая динамика связана с внутренними призывами к ускорению, включая письмо о «код-ред» от главы компании Sam Altman.

Несмотря на ускорение, остаётся вопрос: насколько это повлияет на качество вывода. Для разработчиков, использующих ИИ в редакторах кода, высокая скорость может снизить ощущение контроля над процессом. 1000 токенов в секунду — это больше похоже на работу с мощным инструментом, чем на тщательную сборку.

Тем не менее, Codex-Spark демонстрирует важный шаг в сторону гибкости и диверсификации ИИ-инфраструктуры. В условиях роста спроса на автоматизацию разработки, такие решения могут стать ключевыми для бизнеса, ориентированного на высокую производительность.

АНАЛИТИЧЕСКИЙ РАЗБОР

Ускорение как стратегический ресурс: как OpenAI меняет ИИ-ландшафт

OpenAI представила Codex-Spark — модель, которая работает на чипах Cerebras и демонстрирует скорость в 15 раз выше, чем у предыдущей версии. Это не только улучшение производительности, а ключевой шаг в реализации масштабной стратегии компании, направленной на снижение зависимости от одного поставщика оборудования и укрепление позиций в условиях высокой конкуренции.

От ускорения к стратегии: Codex-Spark и инфраструктурная диверсификация

Codex-Spark — это не только модель с улучшенной скоростью вывода. Она является частью более широкой трансформации ИИ-инфраструктуры OpenAI. Решение использовать чипы Cerebras, а не только Nvidia, позволяет компании расширить возможности масштабирования и снизить риски, связанные с зависимостью от одного поставщика. Это особенно важно в условиях, когда даже крупные заказы не гарантируют доступ к нужным ресурсам [!].

Скорость в 1000 токенов в секунду, заявленная OpenAI, пока не достигает максимальной производительности, которую демонстрируют чипы Cerebras в других тестах. Например, Llama 3.1 70B достигает 2100 токенов в секунду, а gpt-oss-120B — 3000. Это может быть связано с архитектурными особенностями Codex-Spark, такими как её размер и сложность, или с накладными расходами на инференс. Однако даже частичное использование возможностей Cerebras уже даёт OpenAI преимущество в скорости и снижает затраты на вычисления [!].

Партнёрства и риски: как OpenAI строит ИИ-инфраструктуру будущего

OpenAI не ограничивается сотрудничеством с Cerebras. Компания подписала соглашения с AMD и Amazon, а также заключила $100 млрд-инвестиционное соглашение с Nvidia. В рамках этих партнёрств OpenAI получает доступ к кастомным чипам и облачной инфраструктуре, что позволяет ей масштабировать вычислительные мощности и сократить время выполнения сложных задач. Важно отметить, что компания также разрабатывает собственный чип, что ещё больше снижает её зависимость от внешних поставщиков [!].

Однако централизация вокруг OpenAI создаёт системные риски. Рост зависимости от одного субъекта может повлиять на стабильность цепочек поставок и вызвать колебания в спросе на оборудование. Это делает ИИ-инфраструктуру уязвимой к техническим сбоям, регуляторным изменениям или управленческим решениям внутри компании [!].

Энергетика как стратегический актив

Другим важным фактором, влияющим на стратегию OpenAI, является энергетическая инфраструктура. США рискуют утратить лидерство в ИИ из-за недостаточного роста производственной мощности электроэнергии. В 2024 году Китай увеличил производство электроэнергии на 429 ГВт, тогда как в США этот показатель составил всего 51 ГВт. OpenAI предлагает администрации запустить совместные проекты с частным сектором для увеличения мощности энергосистемы до 100 ГВт в год. Электроэнергия становится стратегическим ресурсом, необходимым для создания ИИ-моделей следующего поколения [!].

Конкуренция ускоряется: Opus 4.6 и вызовы для OpenAI

В условиях ускоряющейся конкуренции OpenAI сталкивается с новыми вызовами. Например, модель Opus 4.6 от Anthropic расширяет свои функции, включая возможность распределения задач между агентами и увеличение контекста до миллиона токенов. Это делает модель более применимой в профессиональных сферах, таких как управление проектами и аналитика. Для OpenAI важно не только ускорить вывод, но и сохранить качество, особенно в задачах, где требуется глубокое понимание контекста [!].

Заключение: баланс между скоростью и качеством

Codex-Spark демонстрирует важный шаг в сторону гибкости и диверсификации ИИ-инфраструктуры. В условиях роста спроса на автоматизацию разработки, такие решения могут стать ключевыми для бизнеса, ориентированного на высокую производительность. Однако остаётся вопрос: насколько это повлияет на качество вывода? Для разработчиков, использующих ИИ в редакторах кода, высокая скорость может снизить ощущение контроля над процессом. 1000 токенов в секунду — это больше похоже на работу с мощным инструментом, чем на тщательную сборку. Тем не менее, Codex-Spark — это не только улучшение, а стратегический инструмент, демонстрирующий стремление OpenAI к диверсификации ИИ-инфраструктуры и снижению зависимости от одного поставщика.

Коротко о главном

С какой скоростью обрабатывает токены Codex-Spark?

Модель способна обрабатывать более 1000 токенов в секунду, что в 15 раз быстрее предыдущей версии, но ниже потенциала чипов Cerebras, используемых в других тестах.

Для каких пользователей доступна Codex-Spark?

Модель доступна в исследовательской версии для подписчиков ChatGPT Pro (200 долларов в месяц) и через API для ограниченного числа партнёров.

Почему OpenAI сотрудничает с Cerebras?

Партнёрство с Cerebras позволяет OpenAI снизить зависимость от Nvidia, повысить скорость инференса и расширить возможности своей ИИ-инфраструктуры.

Какие изменения в архитектуре позволили ускорить Codex-Spark?

Модель оптимизирована под скорость, а не глубину знаний, и построена исключительно на текстовых данных, что позволяет сократить время выполнения задач программирования.

Какие партнёрства OpenAI помогают снизить зависимость от Nvidia?

OpenAI подписала соглашения с AMD и Amazon, а также разрабатывает собственный чип для ИИ, что указывает на стратегию диверсификации поставщиков.

Почему Codex-Spark не достиг максимальной скорости чипов Cerebras?

Низкая скорость модели может быть обусловлена сложностью алгоритмов и дополнительными вычислительными накладными расходами при инференсе.

Какие бенчмарки показывают эффективность Codex-Spark?

В тестах SWE-Bench Pro и Terminal-Bench 2.0 модель превосходит предыдущую версию GPT-5.1-Codex-mini, хотя OpenAI не предоставила независимой проверки результатов.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Цифровизация и технологии; Устройства и гаджеты; Комплектущие для ПК; Передовые технологии

Оценка значимости: 4 из 10

Открытие нового направления в ИИ-разработке OpenAI, связанное с применением чипов Cerebras, имеет ограниченное значение для российской аудитории. Хотя тема ИИ и технологии в целом представляет интерес, это событие не затрагивает Россию напрямую, не меняет существующие экономические или политические условия, и не влияет на доступность сервисов в стране. Масштаб события — региональный или глобальный, но без прямой связи с Россией, а сферы влияния сосредоточены в узкой технической области. Последствия краткосрочны и касаются в основном профессиональной среды разработчиков за рубежом.

Материалы по теме

OpenAI и Nvidia готовят революцию: 10 млрд GPU для агентного ИИ

Упоминание о необходимых масштабах вычислительных мощностей и рисках доступа к оборудованию служит фундаментом для аргумента о важности диверсификации ИИ-инфраструктуры OpenAI. Он подчеркивает, что даже крупные заказы не гарантируют надёжности, усиливая логику перехода к нескольким поставщикам, таким как Cerebras, AMD и Nvidia.

Подробнее →
OpenAI масштабирует ИИ: $500 млрд на чипы Broadcom, NVIDIA и AMD

Конкретные данные о партнёрствах OpenAI с AMD, Nvidia и другими, а также о разработке собственных чипов, используются для демонстрации стратегии диверсификации и снижения зависимости от одного поставщика. Эти партнёрства и инвестиции подтверждают устойчивость компании на фоне роста сложности ИИ-инфраструктуры.

Подробнее →
OpenAI стала центральной точкой ИИ-рынка — риски растут

Централизация вокруг OpenAI и связанные с ней системные риски, такие как технические сбои или регуляторные изменения, используются как контраргумент к её текущей доминирующей позиции. Это усиливает тезис о необходимости баланса между скоростью и надёжностью в ИИ-экосистеме.

Подробнее →
OpenAI: энергетический разрыв угрожает ИИ-лидерству США

Сравнение роста производственной мощности электроэнергии в США и Китае (51 ГВт против 429 ГВт) служит доказательством угрозы лидерству США в ИИ. Это поддерживает аргумент о стратегической важности энергетической инфраструктуры как основы для создания моделей следующего поколения.

Подробнее →
Opus 4.6 рушит границы ИИ: от кода к презентациям и командной работе

Упоминание модели Opus 4.6 и её новых функций, таких как распределение задач между агентами и увеличение контекста, используется для контраста с предложениями OpenAI. Это подчеркивает вызовы, с которыми сталкивается компания, и необходимость не только ускорения вывода, но и улучшения качества и глубины обработки информации.

Подробнее →