Ноябрь 2025   |   Обзор события   | 7

Kimi K2 Thinking обошла GPT-5 и Claude: новый DeepSeek момент в ИИ

Китайская ИИ-стартап-компания Moonshot AI выпустила открытую версию модели Kimi K2 Thinking, которая превзошла по ряду метрик крупные американские модели. Модель показала высокие результаты на тестах, включая Humanity’s Last Exam, BrowseComp и Seal-0, а также характеризуется низкой стоимостью обучения и API, высокой скоростью генерации и способностью к последовательной работе с инструментами.

ИСХОДНЫЙ НАРРАТИВ

По данным Artificialintelligence-News, китайская ИИ-стартап-компания Moonshot AI, базирующаяся в Пекине и оцениваемая в 3,3 млрд долларов, стала новым лидером в области искусственного интеллекта. 6 ноября 2025 года компания выпустила открытую версию модели Kimi K2 Thinking, которая превзошла по ряду метрик такие крупные американские модели, как GPT-5 и Claude Sonnet 4.5.

Технические достижения и сравнение с конкурентами

Kimi K2 Thinking показала высокие результаты на нескольких бенчмарках. На тесте Humanity’s Last Exam, включающем 2500 вопросов, модель набрала 44,9%, что выше, чем 41,7% у GPT-5. В тесте BrowseComp, оценивающем способность модели к поиску информации в интернете, Kimi K2 Thinking показала 60,2%. На бенчмарке Seal-0, проверяющем модели в реальных условиях, результат составил 56,3%.

Кроме того, модель может выполнять до 200–300 последовательных вызовов инструментов без участия человека, что делает её особенно полезной для сложных задач, требующих логического мышления и кодирования. Уровень контекста составляет 256 тыс. токенов, что также является значимым показателем.

Экономическая эффективность как ключевой фактор

Одним из важных аспектов, отличающих Kimi K2 Thinking от аналогов, является её стоимость. По оценке CNBC, обучение модели обошлось в 4,6 млн долларов. Также «Южная китайская утренняя газета» отметила, что стоимость API Kimi K2 Thinking в 6–10 раз ниже, чем у моделей OpenAI и Anthropic. Это делает модель привлекательной для широкого круга пользователей.

Технически Kimi K2 Thinking использует архитектуру Mixture-of-Experts с общим количеством параметров в 1 трлн, из которых 32 млрд активируются при каждом выводе. Модель обучена с использованием INT4-квантования, что позволило увеличить скорость генерации в два раза без потери качества.

Отраслевые реакции и стратегические перспективы

Комментарии экспертов подтверждают значимость события. Thomas Wolf, сооснователь Hugging Face, назвал появление Kimi K2 Thinking «ещё одним DeepSeek моментом» и предположил, что такие прорывы могут становиться регулярными. Независимые тесты, проведённые консультантом Artificial Analysis, показали, что Kimi K2 Thinking достигла 93% точности на бенчмарке Tau-2 Bench Telecom, что является лучшим результатом, зафиксированным независимо.

Однако, по мнению исследователя из Allen Institute for AI, Nathan Lambert, между лучшими закрытыми и открытыми моделями всё ещё сохраняется разница в 4–6 месяцев по некоторым метрикам. Тем не менее, китайские лаборатории, включая Moonshot и DeepSeek, демонстрируют устойчивую динамику в ключевых направлениях.

Moonshot AI, DeepSeek, Qwen, Baichuan, OpenAI, Anthropic, Hugging Face, Artificial Analysis — это компании и проекты, которые сейчас наиболее активно влияют на рынок ИИ.

Интересно: Сможет ли сохранить США свои позиции в разработке ИИ, если китайские модели продолжат усовершенствоваться в качестве и экономичности?

АНАЛИТИЧЕСКИЙ РАЗБОР

Китайский ИИ: когда прорыв становится привычкой

Ускорение в условиях конкуренции

Появление модели Kimi K2 Thinking от Moonshot AI — это не просто очередной шаг в развитии искусственного интеллекта. Это событие, которое подчеркивает смену парадигмы в глобальной ИИ-индустрии. Китайские стартапы не просто догоняют своих западных коллег, они начинают устанавливать новые стандарты.

Ключевой момент: рост скорости обновлений и снижение затрат на разработку делают ИИ всё более доступным и конкурентоспособным. Это особенно важно для компаний, которые не могут позволить себе аренду дорогостоящих закрытых моделей.

Экономика ИИ: кто платит, тот и диктует правила

Одним из важных факторов успеха Kimi K2 Thinking стало снижение стоимости как обучения, так и использования. 4,6 млн долларов на обучение — это в несколько раз меньше, чем у аналогов. Снижение API-тарифов в 6–10 раз делает модель особенно привлекательной для среднего и малого бизнеса.

Это не случайно. В Китае ИИ-разработки часто финансируются не только венчурными фондами, но и государственными структурами, что снижает барьеры для масштабирования. Для сравнения, в западных компаниях, таких как OpenAI или Anthropic, ИИ-модели часто остаются закрытыми, что ограничивает их доступность и, соответственно, скорость внедрения.

Ключевой момент: когда стоимость снижается, рынок расширяется. Это создаёт новые возможности для интеграции ИИ в бизнес-процессы, особенно для тех, кто раньше не мог себе позволить.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Влияние на глобальную ИИ-индустрию

Компании вроде Hugging Face и Allen Institute for AI уже начали пересматривать свои стратегии. Если ранее ИИ-разработки в Китае воспринимались как альтернатива, то теперь они становятся полноценным конкурентом. Это не только влияет на рынок моделей, но и на экосистему вокруг них: от инструментов для разработки до инфраструктуры.

Важно понимать, что успех Moonshot AI — это не случайность. Это результат системного подхода: быстрая итерация, доступ к данным, поддержка экосистемы. Такие компании, как DeepSeek и Baichuan, уже давно работают в этом направлении, и их успех начинает создавать эффект домино: другие игроки вынуждены ускоряться, чтобы не отставать.

Важный нюанс: когда ИИ становится дешевле и доступнее, это не только расширяет рынок, но и меняет правила игры. Теперь качество и цена — это не просто технические параметры, а стратегические рычаги влияния.

Локальный контекст: возможности и вызовы

Для российского бизнеса и исследовательских организаций появление новых ИИ-моделей — это как возможность, так и вызов. С одной стороны, доступ к более дешёвым и эффективным решениям может снизить барьеры для внедрения ИИ. С другой — это требует адаптации: либо создание собственных моделей, либо интеграция в глобальную экосистему.

В условиях ограниченного доступа к западным технологиям, китайские ИИ-модели могут стать важным ресурсом. Однако важно учитывать, что интеграция с иностранными решениями требует не только технической подготовки, но и юридического, а иногда и политического согласования.

Важный нюанс: доступность ИИ не гарантирует его эффективного использования. Для бизнеса ключевым становится не только выбор модели, но и умение адаптировать её под свои цели.

Технологическая независимость и инфраструктура

Одним из факторов, усиливающих позиции Китая в ИИ, является переход на собственную вычислительную инфраструктуру. Так, компания DeepSeek адаптировала свою модель V3.1 для работы с отечественными ускорителями, что демонстрирует растущую ориентацию на локальные решения [!]. Это важно не только для снижения зависимости от иностранных технологий, но и для сокращения затрат на вычисления.

Кроме того, китайские ИИ-платформы, такие как DeepSeek, активно внедряются в различные отрасли — от автомобилестроения до госуправления. Модели R1 и V3 используются более чем 20 автомобильными брендами, несколькими производителями смартфонов, Midea, сотнями больниц и десятками тысяч государственных служащих [!].

Эффективность и масштабируемость

Технические инновации также играют важную роль. Например, DeepSeek представила модель V3.2-Exp, которая использует новую архитектуру «DeepSeek Sparse Attention» для ускорения обработки длинных текстов. Эта технология позволяет сократить вычислительную нагрузку, оставляя только наиболее значимые токены, что обеспечивает ускорение до 64 раз при работе с текстами длиной до 128 000 токенов [!]. Модель работает в 2–3 раза быстрее, снижает использование памяти на 30–40% и улучшает эффективность обучения на 50%.

Такие улучшения делают ИИ-модели более привлекательными для масштабного внедрения. Снижение стоимости API-запросов более чем на 50% усиливает их конкурентоспособность, особенно в условиях роста спроса на ИИ-инфраструктуру.

Глобальная конкуренция и инфраструктурные вызовы

Пока китайские компании ускоряются, западные игроки также усиливают свои позиции. OpenAI, например, заключила соглашение с Amazon на сумму 38 млрд долларов, чтобы использовать облако AWS для масштабирования своих ИИ-моделей [!]. Сделка обеспечивает доступ к десяткам тысяч чипов NVIDIA, что ускорит развитие технологий. Компания также договорилась о поставках оборудования с NVIDIA, AMD, Google, Oracle и Broadcom на сотни миллиардов долларов.

В свою очередь, Китай субсидирует крупных ИИ-гигантов и производителей чипов, чтобы снизить их затраты на электроэнергию и стимулировать переход от иностранных чипов к отечественным решениям [!]. Это часть более широкой стратегии, направленной на создание мощной ИИ-инфраструктуры и укрепление позиций на мировом рынке.

Выводы для российского бизнеса

Для российских компаний и исследовательских организаций важно не только наблюдать за развитием событий, но и активно адаптироваться к новым реалиям. Китайские ИИ-модели становятся всё более доступными и функциональными, а их интеграция в различные отрасли демонстрирует высокую эффективность. Однако для успешного внедрения необходимо учитывать не только технические аспекты, но и логистические, юридические и стратегические.

В условиях усиления конкуренции за доступ к передовым технологиям, бизнесу важно своевременно оценивать риски и возможности, чтобы не упустить выгоды от глобальных изменений в ИИ-индустрии.

Коротко о главном

Какую оценку показала Kimi K2 Thinking на тесте Humanity’s Last Exam?

Модель набрала 44,9% правильных ответов, что выше, чем 41,7% у GPT-5, что подтверждает её высокую эффективность в общих знаниях.

Какая стоимость обучения Kimi K2 Thinking?

Обучение модели обошлось в 4,6 млн долларов, а стоимость API в 6–10 раз ниже, чем у OpenAI и Anthropic, что делает её экономически выгодной для пользователей.

Какова архитектура Kimi K2 Thinking?

Модель использует Mixture-of-Experts с 1 трлн параметров, из которых 32 млрд активируются при каждом выводе, а также INT4-квантования, что увеличило скорость генерации в два раза.

Какую точность показала Kimi K2 Thinking на бенчмарке Tau-2 Bench Telecom?

Независимые тесты показали 93% точности, что стало лучшим результатом, зафиксированным независимо среди подобных моделей.

Что означает термин «новый DeepSeek момент»?

Это отсылка к аналогичному прорыву другой китайской ИИ-компании, что указывает на растущую способность китайских стартапов конкурировать с американскими лидерами в области ИИ.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Бизнес; Стартапы и инновации; Цифровизация и технологии

Оценка значимости: 7 из 10

Прорыв китайской ИИ-модели Kimi K2 Thinking демонстрирует значительный прогресс в технологической сфере, затрагивающей глобальные рынки, включая Россию. Масштаб события — региональный с элементами глобального влияния, так как развитие ИИ в Китае может снизить зависимость от западных решений, что косвенно затрагивает российские компании и научные круги. Воздействие среднесрочное, затрагивает несколько сфер — технологии, экономику и международную конкуренцию. Последствия значимы, так как снижение стоимости и повышение эффективности ИИ-моделей влияют на доступность и развитие искусственного интеллекта в странах, не имеющих собственных лидеров в этой области.

Материалы по теме

Tencent полностью перешла на отечественные чипы для ИИ

Адаптация DeepSeek V3.1 к отечественным ускорителям демонстрирует рост независимости Китая в ИИ-инфраструктуре. Это поддерживает тезис о системном подходе Пекина к технологической автономии, уменьшая зависимость от иностранных решений и снижая операционные издержки.

Подробнее →
DeepSeek: как китайский ИИ меняет автомобили, смартфоны и госуправление

Распространение DeepSeek в автомобильной, смартфоновой, медицинской и государственной сферах показывает её масштабную интеграцию в реальную экономику. Упоминание Лонггана и сокращение времени на административные задачи до 90% усиливает утверждение о практической эффективности и широком применении китайских ИИ-моделей.

Подробнее →
DeepSeek представила революционный AI с ускорением в 64 раза

Ускорение в 64 раза, снижение использования памяти и улучшение эффективности обучения в DeepSeek-V3.2-Exp подчёркивают технологическую гибкость и экономичность китайских решений. Это служит аргументом в пользу их конкурентоспособности, особенно в условиях масштабного внедрения.

Подробнее →
OpenAI инвестирует $38 млрд в облако AWS для ускорения ИИ

Инвестиции OpenAI в AWS на $38 млрд и заключение соглашений с NVIDIA, AMD и другими компаниями отражают усилия Запада удержать лидерство в ИИ-индустрии. Это контрастирует с китайской стратегией и подчёркивает глобальную конкуренцию за доступ к вычислительным ресурсам.

Подробнее →
Китай субсидирует гигантов ИИ и чипов, чтобы обойти Nvidia

Субсидии Китая для ИИ-гигантов и производителей чипов демонстрируют государственную поддержку технологической независимости. Это усиливает идею, что Пекин не просто отстаёт, но активно создаёт условия для обгона в ИИ-развитии, особенно в инфраструктурном секторе.

Подробнее →
Китай обгоняет США в гонке за искусственный интеллект — заявление NVIDIA

Заявление Джина Хуанга о потере лидерства США и укреплении позиций Китая в ИИ-гонке служит финальным подтверждением тезиса о смене баланса сил. Это укрепляет общий посыл текста о том, что Китай становится не просто альтернативой, а полноценным конкурентом.

Подробнее →