OpenAI делает ставку на Cerebras: скорость против зависимостей
OpenAI делает решительный шаг в сторону диверсификации ИИ-инфраструктуры, запуская первую модель на чипах Cerebras — это снижает зависимость от Nvidia и ускоряет обработку кода в 15 раз по сравнению с предыдущей версией. Такой прорыв усиливает позиции OpenAI в гонке за скоростью инференса, перекладывая баланс сил в борьбе за лидерство в сфере автоматизации программирования.
Открытие нового направления в ИИ-разработке: OpenAI запускает модель на чипах Cerebras
По данным Ars Technica, OpenAI представила первую модель, которая работает на чипах, отличных от тех, что производит Nvidia. Речь идёт о кодогенерирующей модели GPT-5.3-Codex-Spark, запущенной на процессорах Cerebras. Согласно информации, модель способна обрабатывать более 1000 токенов в секунду, что в 15 раз превышает скорость предыдущей версии. В сравнении, Claude Opus 4.6 от Anthropic в режиме повышенной скорости работает в 2.5 раза быстрее, чем в обычном режиме, но при этом остаётся более мощной моделью.
Совместная работа с Cerebras позволила OpenAI расширить возможности своих платформ. Это подтверждает Sachin Katti, руководитель направления вычислений в OpenAI, который отметил: «Cerebras оказался отличным инженерным партнёром, и мы рады добавить быструю инференцию как новую платформенную функцию».
Codex-Spark доступен в виде исследовательской версии для подписчиков ChatGPT Pro (200 долларов в месяц) через приложение Codex, интерфейс командной строки и расширение VS Code. OpenAI также предоставляет API-доступ ограниченным партнёрам. Модель имеет окно контекста в 128 000 токенов и на старте поддерживает только текст.
Ускорение и специализация: что нового в Codex-Spark
Разработка Codex-Spark является продолжением работы над более крупной моделью GPT-5.3-Codex. В то время как полная версия предназначена для сложных задач автоматизации кодирования, Spark оптимизирован под скорость, а не глубину знаний. Модель построена исключительно на текстовых данных и настроена для выполнения задач, связанных с программированием, в отличие от более универсальной GPT-5.3.
На двух бенчмарках, оценивающих способность к программированию — SWE-Bench Pro и Terminal-Bench 2.0, — Spark, по данным OpenAI, превосходит предыдущую версию GPT-5.1-Codex-mini, выполняя задачи в значительно сокращённые сроки. Однако компания не предоставила независимую проверку этих утверждений.
Несмотря на обещания, в прошлом Codex демонстрировал проблемы с производительностью. Например, в тесте, где четыре ИИ-агента строили клон игры Minesweeper, Codex потребовал вдвое больше времени, чем Claude Code от Anthropic.
Конкуренция ускоряется, а OpenAI делает ставку на инфраструктуру
Скорость в 1000 токенов в секунду — это значительный скачок по сравнению с предыдущими решениями OpenAI, работающими на чипах Nvidia. Согласно независимым бенчмаркам от Artificial Analysis, самые быстрые модели OpenAI на Nvidia не превышают 167 токенов в секунду. Например, GPT-4o работает на уровне 147 токенов в секунду, а GPT-4o mini — около 52.
Однако для Cerebras показатель в 1000 токенов в секунду остаётся ниже возможностей чипов компании. В тестах, проведённых Cerebras, Llama 3.1 70B достигает 2100 токенов в секунду, а модель gpt-oss-120B от OpenAI — 3000 токенов в секунду. Это указывает на то, что более низкая скорость Codex-Spark может быть обусловлена сложностью модели и дополнительными вычислительными накладными расходами.

Снижение зависимости от Nvidia
Инфраструктурная стратегия OpenAI также претерпевает изменения. Модель Codex-Spark работает на чипе Wafer Scale Engine 3 от Cerebras, который стал центральным элементом бизнеса компании с 2022 года. Партнёрство между OpenAI и Cerebras было объявлено в январе, и Codex-Spark стал первой продукцией, вышедшей из этого сотрудничества.
OpenAI активно снижает зависимость от Nvidia. В октябре 2025 года компания подписала многолетнее соглашение с AMD, в ноябре — заключила $38 млрд-соглашение с Amazon по облачным вычислениям. Кроме того, OpenAI разрабатывает собственный чип для ИИ, который планируется производить у TSMC.
Планировавшийся $100 млрд-договор с Nvidia пока не реализован, хотя компания обещала $20 млрд инвестиций. Согласно информации из Reuters, OpenAI столкнулось с недостаточной скоростью некоторых чипов Nvidia для задач инференса — именно такая нагрузка и была ключевой при создании Codex-Spark.
В условиях высокой конкуренции, особенно со стороны Anthropic, OpenAI ускоряет обновления Codex. В декабре была выпущена GPT-5.2, а совсем недавно — GPT-5.3-Codex. Такая динамика связана с внутренними призывами к ускорению, включая письмо о «код-ред» от главы компании Sam Altman.
Несмотря на ускорение, остаётся вопрос: насколько это повлияет на качество вывода. Для разработчиков, использующих ИИ в редакторах кода, высокая скорость может снизить ощущение контроля над процессом. 1000 токенов в секунду — это больше похоже на работу с мощным инструментом, чем на тщательную сборку.
Тем не менее, Codex-Spark демонстрирует важный шаг в сторону гибкости и диверсификации ИИ-инфраструктуры. В условиях роста спроса на автоматизацию разработки, такие решения могут стать ключевыми для бизнеса, ориентированного на высокую производительность.
Ускорение как стратегический ресурс: как OpenAI меняет ИИ-ландшафт
OpenAI представила Codex-Spark — модель, которая работает на чипах Cerebras и демонстрирует скорость в 15 раз выше, чем у предыдущей версии. Это не только улучшение производительности, а ключевой шаг в реализации масштабной стратегии компании, направленной на снижение зависимости от одного поставщика оборудования и укрепление позиций в условиях высокой конкуренции.
От ускорения к стратегии: Codex-Spark и инфраструктурная диверсификация
Codex-Spark — это не только модель с улучшенной скоростью вывода. Она является частью более широкой трансформации ИИ-инфраструктуры OpenAI. Решение использовать чипы Cerebras, а не только Nvidia, позволяет компании расширить возможности масштабирования и снизить риски, связанные с зависимостью от одного поставщика. Это особенно важно в условиях, когда даже крупные заказы не гарантируют доступ к нужным ресурсам [!].
Скорость в 1000 токенов в секунду, заявленная OpenAI, пока не достигает максимальной производительности, которую демонстрируют чипы Cerebras в других тестах. Например, Llama 3.1 70B достигает 2100 токенов в секунду, а gpt-oss-120B — 3000. Это может быть связано с архитектурными особенностями Codex-Spark, такими как её размер и сложность, или с накладными расходами на инференс. Однако даже частичное использование возможностей Cerebras уже даёт OpenAI преимущество в скорости и снижает затраты на вычисления [!].
Партнёрства и риски: как OpenAI строит ИИ-инфраструктуру будущего
OpenAI не ограничивается сотрудничеством с Cerebras. Компания подписала соглашения с AMD и Amazon, а также заключила $100 млрд-инвестиционное соглашение с Nvidia. В рамках этих партнёрств OpenAI получает доступ к кастомным чипам и облачной инфраструктуре, что позволяет ей масштабировать вычислительные мощности и сократить время выполнения сложных задач. Важно отметить, что компания также разрабатывает собственный чип, что ещё больше снижает её зависимость от внешних поставщиков [!].
Однако централизация вокруг OpenAI создаёт системные риски. Рост зависимости от одного субъекта может повлиять на стабильность цепочек поставок и вызвать колебания в спросе на оборудование. Это делает ИИ-инфраструктуру уязвимой к техническим сбоям, регуляторным изменениям или управленческим решениям внутри компании [!].
Энергетика как стратегический актив
Другим важным фактором, влияющим на стратегию OpenAI, является энергетическая инфраструктура. США рискуют утратить лидерство в ИИ из-за недостаточного роста производственной мощности электроэнергии. В 2024 году Китай увеличил производство электроэнергии на 429 ГВт, тогда как в США этот показатель составил всего 51 ГВт. OpenAI предлагает администрации запустить совместные проекты с частным сектором для увеличения мощности энергосистемы до 100 ГВт в год. Электроэнергия становится стратегическим ресурсом, необходимым для создания ИИ-моделей следующего поколения [!].
Конкуренция ускоряется: Opus 4.6 и вызовы для OpenAI
В условиях ускоряющейся конкуренции OpenAI сталкивается с новыми вызовами. Например, модель Opus 4.6 от Anthropic расширяет свои функции, включая возможность распределения задач между агентами и увеличение контекста до миллиона токенов. Это делает модель более применимой в профессиональных сферах, таких как управление проектами и аналитика. Для OpenAI важно не только ускорить вывод, но и сохранить качество, особенно в задачах, где требуется глубокое понимание контекста [!].
Заключение: баланс между скоростью и качеством
Codex-Spark демонстрирует важный шаг в сторону гибкости и диверсификации ИИ-инфраструктуры. В условиях роста спроса на автоматизацию разработки, такие решения могут стать ключевыми для бизнеса, ориентированного на высокую производительность. Однако остаётся вопрос: насколько это повлияет на качество вывода? Для разработчиков, использующих ИИ в редакторах кода, высокая скорость может снизить ощущение контроля над процессом. 1000 токенов в секунду — это больше похоже на работу с мощным инструментом, чем на тщательную сборку. Тем не менее, Codex-Spark — это не только улучшение, а стратегический инструмент, демонстрирующий стремление OpenAI к диверсификации ИИ-инфраструктуры и снижению зависимости от одного поставщика.
Источник: Ars Technica