OpenAI закупает $22,4 млрд мощностей для ИИ у CoreWeave
Компания CoreWeave заключила с OpenAI новое соглашение на поставку мощностей для центров обработки данных на сумму $6,5 млрд, что делает общую сумму сотрудничества равной $22,4 млрд. Это расширение отражает растущую потребность OpenAI в вычислительных мощностях для разработки и обучения моделей искусственного интеллекта.
По данным международных публикаций, компания CoreWeave заключила с OpenAI новое соглашение на поставку мощностей для центров обработки данных, предусматривающее сумму в $6,5 млрд. Это второе расширение существующей сделки, которая изначально составляла $11,9 млрд, а в мае была дополнена на $4 млрд. Таким образом, общая сумма сотрудничества между двумя компаниями достигает $22,4 млрд.
Рост потребности в вычислительных мощностях
Решение OpenAI о расширении сотрудничества с CoreWeave демонстрирует стремительный рост потребности в мощностях для разработки и обучения моделей искусственного интеллекта. Компания активно заключает контракты с поставщиками инфраструктуры, чтобы обеспечить оперативный доступ к необходимой вычислительной базе. В условиях высокой конкуренции на рынке AI, OpenAI вынуждена оперативно закупать мощности, чтобы не отставать от технологических лидеров.
Роль CoreWeave в инфраструктуре AI
Несмотря на то, что CoreWeave ранее не была широко известна, ее роль в сфере AI-инфраструктуры растет. Компания начала свою деятельность как Atlantic Crypto, инвестируя в майнинг эфира, а затем перешла к аренде GPU-оборудования. С 2022 года, когда спрос на вычислительные мощности резко вырос, CoreWeave стала ключевым поставщиком GPU, в основном высокопроизводительных решений от Nvidia.
Важным шагом стало заключение сделки на $2,3 млрд, где впервые в мире были использованы H100-чипы Nvidia в качестве залога. Компания также первой внедрила Nvidia Blackwell GB200 (NVL72), что подчеркивает ее позицию на переднем крае технологий. На сегодняшний день CoreWeave эксплуатирует десятки центров обработки данных в США и пять — в Европе.

Сравнение с крупными игроками
Хотя CoreWeave быстро растет, ее доля в общей инфраструктуре все еще скромна. По данным за июнь 2025 года, около 70% доходов компании приходится на Microsoft, которая остается главным клиентом. Это подчеркивает, что крупные игроки, такие как Amazon Web Services, Google Cloud, IBM Cloud, Oracle и Azure, по-прежнему доминируют на рынке облачных вычислений. Однако рост CoreWeave демонстрирует, что ниша специализированных AI-центров обработки данных набирает обороты.
Ускоряющаяся гонка за AI-инфраструктурой и ее стратегические последствия
Решение OpenAI заключить с CoreWeave соглашение на $6,5 млрд — не очередной финансовый шаг, а важный сигнал о динамике в развитии искусственного интеллекта. За этим контрактом скрывается борьба за доступ к вычислительным мощностям, которая становится критическим фактором успеха для технологических лидеров. В условиях, когда создание и обучение крупных моделей AI требует всё больших ресурсов, инфраструктура перестаёт быть фоном — она становится стратегическим активом.
Как CoreWeave играет роль в глобальной AI-цепочке
CoreWeave, несмотря на сравнительно недавнее появление на рынке, уже сейчас выступает в роли важного поставщика GPU-мощностей. Это особенно интересно, учитывая, что компания изначально была связана с криптовалютным майнингом. Переключение на AI-инфраструктуру — не случайность, а логичный шаг в условиях роста спроса на GPU, особенно от Nvidia, которая доминирует в сегменте.
Использование H100-чипов в качестве залога и внедрение Blackwell GB200 говорят о том, что CoreWeave не только адаптируется к трендам, а становится их частью. Это делает её привлекательной для OpenAI, которая нуждается в стабильном и масштабируемом источнике мощностей. Однако стоит помнить, что CoreWeave всё ещё сильно зависит от Microsoft, которая остаётся её ключевым клиентом. Это ограничивает её стратегическую независимость и делает её уязвимой к изменениям в политике крупных игроков.
Что это значит для глобальной конкуренции в AI?
Растущая зависимость OpenAI от специализированных поставщиков, таких как CoreWeave, говорит о том, что даже самые крупные игроки в AI не могут всё делать самостоятельно. Они вынуждены выстраивать сложные цепочки поставок, где каждое звено — это стратегическое решение. Это открывает возможности для новых участников рынка, но при этом усиливает конкуренцию за доступ к редким ресурсам, таких как GPU, энергия и недвижимость для центров обработки данных.
В свою очередь, это создаёт новые барьеры для входа. Стоимость масштабирования AI-инфраструктуры становится настолько высокой, что только крупные корпорации могут себе позволить такие инвестиции. Это может привести к консолидации рынка и усилению доминирования уже существующих гигантов — Amazon, Google, Microsoft, Nvidia и их союзников.
Важный нюанс: Рост спроса на AI-инфраструктуру создаёт новую экономическую нишу, где узкоспециализированные игроки, такие как CoreWeave, могут играть стратегическую роль, но остаются зависимыми от крупных заказчиков.
Влияние на российский рынок и возможности для локальных игроков
Для России, где развитие AI-инфраструктуры находится на начальном этапе, такие тенденции имеют двойственное значение. С одной стороны, рост стоимости доступа к GPU и вычислительным мощностям может затруднить развитие отечественных AI-проектов. С другой — он стимулирует поиск альтернативных решений, включая развитие собственных чипов и локальных центров обработки данных.
В условиях санкций и ограничений на доступ к западным технологиям, российские компании вынуждены либо адаптироваться к новой реальности, либо создавать собственные решения. Это может привести к ускорению развития отечественных чипов и облачных решений, хотя масштабировать такие проекты в краткосрочной перспективе будет сложно.
Важный нюанс: Глобальная гонка за AI-инфраструктурой создаёт как угрозы, так и возможности для России. Ключевой задачей становится не только развитие собственных технологий, но и формирование стратегических партнёрств, способных обеспечить устойчивый доступ к ресурсам.
Энергоэффективность и новые технологии в AI-чипах
Растущие затраты на энергию и оборудование для AI-инфраструктуры стимулируют появление альтернативных решений. Например, компания Tensordyne разработала чипы, основанные на логарифмических числах, что позволяет заменить операции умножения на сложение. Это снижает энергопотребление в 20 раз по сравнению с решениями Nvidia, такими как GB200 NVL72. Такие технологии могут стать конкурентоспособной альтернативой, особенно для рынков, где энергетические затраты становятся критическим фактором.
Вывод: Рост спроса на энергоэффективные решения в сфере AI-чипов создаёт возможности для новых технологий и игроков, способных предложить альтернативы традиционным решениям.