Март 2026   |   Обзор события   | 3

Отказ от военных контрактов: этическая позиция Anthropic принесла рост аудитории на 183%

Отказ Anthropic от сотрудничества с Пентагоном превратил её из «рискованного поставщика» для государства в главного бенефициара рынка, где этика стала мощнее технологий. Пользователи массово мигрируют к Claude, утроив аудиторию за год и обогнав ChatGPT по темпам роста, что доказывает: в эпоху ИИ моральный выбор компании напрямую конвертируется в доминирующее рыночное преимущество.

ИСХОДНЫЙ НАРРАТИВ

По данным аналитических агентств Appfigures и Similarweb, компания Anthropic демонстрирует резкий рост показателей использования своего продукта Claude на фоне публичного конфликта с военным ведомством США. Отказ руководства компании предоставить доступ к своим системам искусственного интеллекта для задач массового наблюдения или создания полностью автономного оружия привел к тому, что модель была обозначена как риск в цепочке поставок для государственных структур. Однако реакция рынка показала обратную динамику: потребители стали активнее выбирать этот сервис, что подтверждается статистикой скачиваний и ежедневной активности пользователей.

Динамика мобильных установок и активной аудитории

В начале марта 2026 года количество ежедневных загрузок мобильного приложения Claude в США превысило показатели главного конкурента — ChatGPT. Согласно оценкам Appfigures, на 2 марта пользователи установили приложение от Anthropic 149 000 раз, тогда как для сервиса от OpenAI этот показатель составил 124 000 загрузок. Такой перевес в новых установках свидетельствует о высоком интересе аудитории к продукту сразу после новостей о позиции компании по вопросам этики и безопасности.

Более глубокий анализ пользовательской активности, проведенный Similarweb, выявил значительный прирост числа людей, регулярно использующих приложение на устройствах iOS и Android. На 2 марта количество ежедневных активных пользователей Claude достигло 11,3 миллиона человек. Это значение на 183% выше показателя начала года, когда аудитория составляла около 4 миллионов человек, и превысила данные февраля, где фиксируется отметка в 5 миллионов. Такой темп роста позволил продукту опередить по активности такие сервисы, как Perplexity и Microsoft Copilot.

Рост веб-трафика и позиционирование в рейтингах

Помимо мобильной платформы, наблюдается устойчивый рост интереса к веб-версии сервиса. Трафик на сайт Claude увеличился на 43% по сравнению с предыдущим месяцем и показал годовой прирост в 297,7%. В этот же период трафик основного конкурента снизился на 6,5%, что указывает на возможное перетекание части аудитории. Сервис Gemini от Google также продемонстрировал рост, но более умеренный — всего на 2,1%, что является замедлением по сравнению с предыдущими месяцами.

Компания Anthropic подтверждает позитивные тенденции, отмечая, что количество новых регистраций превысило отметку в один миллион человек в сутки. Приложение заняло первую строчку в рейтинге App Store в США и удерживает лидирующие позиции в 15 других странах, включая Великобританию, Германию, Францию и Канаду. Ежедневно фиксируется обновление рекордов по регистрации пользователей во всех регионах присутствия сервиса. Представитель компании сообщил, что с начала 2026 года количество активных пользователей утроилось, а число платных подписчиков удвоилось.

Влияние этической позиции на бизнес-показатели

События последних недель демонстрируют прямую связь между публичной позицией технологических компаний и поведением их клиентов. Решение Dario Amodei, генерального директора Anthropic, не допускать использования технологий для военных целей без ограничений, вызвало волну поддержки среди пользователей. Это привело к росту лояльности и увеличению базы активных клиентов, несмотря на то, что государственные структуры США отнесли компанию к категории рискованных поставщиков.

Рынок реагирует на подобные решения быстро: рост числа установок и активных пользователей совпал по времени с публикацией новостей о переговорах с Пентагоном. В то же время наблюдается тенденция к удалению приложения ChatGPT у части пользователей, что может свидетельствовать о пересмотре потребительских предпочтений в сторону сервисов с четкой этической позицией. Для бизнеса это означает, что репутационные факторы и прозрачность целей использования технологий становятся ключевыми драйверами роста аудитории, способными перевесить даже статус лидера рынка.

ПоказательClaude (Anthropic)ChatGPT (OpenAI)Gemini (Google)
Ежедневные загрузки (США, 2 марта)149 000124 000Данные не указаны
Ежедневные активные пользователи (мобильные, 2 марта)11,3 млн250,5 млнДанные не указаны
Рост трафика за месяц (веб-версия)+43%-6,5%+2,1%
Рост трафика за год (веб-версия)+297,7%Данные не указаныДанные не указаны

Ситуация на рынке искусственного интеллекта продолжает меняться под влиянием не только технологических обновлений, но и этических решений руководства компаний. Пользователи все чаще учитывают принципы работы сервисов при выборе инструмента, что создает новые возможности для игроков, готовых отстаивать свои ценности. Для российского бизнеса этот пример важен как демонстрация того, как прозрачность и четкая позиция могут стать конкурентным преимуществом в условиях высокой конкуренции и глобальных вызовов.

АНАЛИТИЧЕСКИЙ РАЗБОР

Этика как новая валюта: когда принципы становятся драйвером роста

События вокруг компании Anthropic демонстрируют редкий для технологического сектора феномен: публичный отказ от работы с военным ведомством США не привел к краху бизнеса, а запустил взрывной рост пользовательской базы. На первый взгляд, это выглядит как триумф морального выбора, где потребители голосуют кошельком за принципы. Однако за этой картиной скрывается более глубокая и прагматичная логика рынка. Когда крупный игрок объявляет себя «неудобным» для мощных структур, он автоматически получает статус безопасного пространства для частного сектора, уставшего от тотальной слежки.

Рост ежедневных загрузок приложения Claude до 149 000 в США, обогнавший показатели ChatGPT, — это не просто реакция на новостной повод. Это сигнал о смене парадигмы доверия. Пользователи интуитивно понимают: если система отказалась от задач массового наблюдения и создания автономного оружия, то данные внутри неё могут быть защищены лучше, чем у конкурентов, интегрированных в государственные программы. В мире, где цифровая приватность становится дефицитным ресурсом, этическая позиция трансформируется из абстрактной идеи в конкретный коммерческий актив.

Важный нюанс: Отказ от государственных контрактов в сфере обороны для Anthropic стал не потерей рынка, а мощным маркетинговым ходом, который привлек миллионы пользователей, ищущих гарантию конфиденциальности данных.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Цена морального выбора: скрытые издержки и внутренние противоречия

За видимым успехом скрывается сложная экономическая реальность. Решение Дарио Амодей (Dario Amodei) ограничить применение технологий создает для компании специфические риски, которые пока не видны на графиках роста трафика. Отказ от работы с Пентагоном и другими военными ведомствами означает автоматическую потерю доступа к огромному сегменту госзакупок США, где объемы финансирования исчисляются миллиардами долларов. В краткосрочной перспективе потребительский бум может компенсировать эти потери за счет массового рынка подписок, но в долгосрочной — компания рискует столкнуться с финансовым тупиком.

Бизнес-модель, построенная исключительно на B2C (бизнес для потребителя), требует колоссальных затрат на инфраструктуру и вычислительные мощности. Каждый новый пользователь генерирует нагрузку на серверы, которая должна быть оплачена. Если государственный заказчик готов платить фиксированные суммы за внедрение ИИ в свои системы без оглядки на маржинальность, то частный потребитель крайне чувствителен к цене подписки. Рост числа платных подписчиков вдвое с начала 2026 года — впечатляющий показатель, но он не гарантирует устойчивости, если основной источник сверхприбылей (госзаказы) будет закрыт навсегда.

Кроме того, статус «рискованного поставщика» для государственных структур может иметь побочные эффекты в других сферах. Крупные корпорации, работающие с государственными проектами или регулируемые отраслями (финансы, энергетика), могут начать опасаться интеграции решений от компании, находящейся в конфликте с властями. Это создает скрытый барьер для выхода на рынок B2B (бизнес для бизнеса) в сегментах, где репутация и соответствие требованиям регуляторов важнее этических манифестов.

Стоит учесть: Потеря доступа к госзаказам может стать фатальной для компании в моменте, когда рост потребительского рынка замедлится, а затраты на поддержку миллионов пользователей потребуют новых источников финансирования.

Парадокс доверия: этика против реальности

Анализ данных показывает не просто рост, а качественный сдвиг в поведении пользователей. Увеличение ежедневной активности на 183% и опережение таких гигантов, как Perplexity и Microsoft Copilot, свидетельствует о том, что аудитория готова мигрировать ради ценностей. Это явление напоминает ситуацию, когда люди массово переходят из одной социальной сети в другую не из-за новых функций, а из-за ощущения безопасности и приватности.

Однако за фасадом «этического лидера» скрываются серьезные противоречия. Уход Мринанка Шармы, бывшего руководителя группы Safeguards в Anthropic, указывает на внутренние трения между этическими принципами и коммерческими интересами [!]. Эксперт покинул компанию, отметив, что попытки сочетать этику с ускоренным ростом приводят к тому, что безопасность всё чаще уступает место скорости выпуска новых моделей. Это ставит под сомнение устойчивость заявленной миссии компании в условиях жесткой конкуренции.

Кроме того, репутация «безопасного» продукта сталкивается с реальностью глобальных угроз. Китайские лаборатории обвиняются в масштабной нелегальной дистилляции модели Claude через десятки тысяч фальшивых аккаунтов [!]. Этот факт показывает, что даже при отказе от официальных военных контрактов технологии могут быть украдены обходными путями. Отказ от сотрудничества с Пентагоном не гарантирует, что алгоритмы не попадут в руки потенциальных противников через третьих лиц, что ставит под вопрос саму логику «безопасного» продукта для корпоративных клиентов.

Юридические риски и монетизация без рекламы

Ситуация усложняется юридическими вызовами. Несмотря на публичную позицию в вопросах безопасности и оружия, компания столкнулась с серьезными претензиями в сфере интеллектуальной собственности. Суд признал использование пиратских материалов в обучении моделью нарушением прав, что привело к выплате $1,5 млрд компенсации [!]. Этот парадокс разрушает миф о «белом рыцаре»: Anthropic позиционирует себя как этический лидер в одних сферах, но может быть неэтичным в других, что создает риски для долгосрочной репутации.

Важным фактором роста лояльности пользователей стал отказ от рекламы. В то время как OpenAI начала тестировать баннерную рекламу в ChatGPT, Anthropic заявила, что Claude останется без спонсорских ссылок и навязчивых предложений [!]. Для пользователя «этика» часто означает не только отсутствие слежки, но и чистый пользовательский опыт без монетизации диалога. Это решение стало мощным конкурентным преимуществом в борьбе за внимание аудитории, уставшей от коммерциализации личных данных.

Тем не менее, риски утечки данных остаются актуальными для всей отрасли. Исследования показывают, что 77% корпоративных данных уже попадают в ИИ-инструменты, и многие сотрудники даже не осознают этого [!]. В условиях, когда злоумышленники используют ИИ для создания вредоносного ПО, затрагивающего десятки организаций [!], вопрос безопасности выходит за рамки этических манифестов и становится вопросом технической защиты инфраструктуры.

На фоне этого: Успех Anthropic доказывает, что в условиях высокой неопределенности пользователи готовы платить за гарантию безопасности данных, превращая этические ограничения в мощный коммерческий актив, однако внутренние конфликты и юридические риски могут подорвать эту стратегию в будущем.

Для российского бизнеса этот кейс несет важный урок: прозрачность и четкая позиция могут стать конкурентным преимуществом даже в условиях жесткой конкуренции с глобальными лидерами. В эпоху, когда доверие к технологиям падает, компания, которая открыто заявляет о своих границах использования ИИ, получает лояльность пользователей, которую невозможно купить рекламой. Однако этот путь требует огромной внутренней дисциплины и готовности к тому, что часть рынка будет потеряна безвозвратно.

Трафик на веб-версию Claude вырос на 297,7% за год, в то время как у основного конкурента он снизился. Это указывает на то, что пользователи не просто скачивают приложение из любопытства, а начинают активно использовать его для решения реальных задач. Если этот тренд сохранится, Anthropic может создать устойчивую экосистему, где этические принципы станут фундаментом бизнес-модели. Но ключевым фактором успеха станет способность компании масштабировать инфраструктуру без доступа к государственным субсидиям и контрактам, которые традиционно поддерживали развитие ИИ в США.

В конечном итоге, ситуация с Anthropic показывает, что технологии неразрывно связаны с политикой, этикой и общественным доверием. Компании, которые игнорируют этот факт, рискуют потерять связь с аудиторией, даже если их продукты технически совершенны. Те же, кто находит баланс между инновациями и ответственностью, получают шанс стать лидерами нового этапа развития искусственного интеллекта, но должны быть готовы к тому, что «этика» — это не только моральный выбор, но и сложная стратегическая игра с высокими ставками.

Коротко о главном

Сколько раз приложение Claude скачали в США 2 марта 2026 года?

Пользователи установили приложение 149 000 раз, что позволило ему опередить главного конкурента ChatGPT с показателем в 124 000 загрузок сразу после новостей о позиции компании.

Как изменилось количество ежедневных активных пользователей Claude к началу марта?

Аудитория выросла до 11,3 миллиона человек, что на 183% больше, чем в начале года, благодаря росту лояльности клиентов, поддерживающих отказ от создания автономного оружия.

Какой прирост веб-трафика показал сервис Claude за год?

Трафик увеличился на 297,7%, в то время как у основного конкурента ChatGPT он снизился на 6,5%, что указывает на переток пользователей к сервису с четкими этическими принципами.

Сколько новых регистраций фиксирует Anthropic ежедневно?

Количество новых пользователей превышает один миллион человек в сутки, что позволило приложению занять первое место в рейтинге App Store в США и лидировать еще в 15 странах.

Какой эффект имело решение генерального директора Dario Amodei на бизнес-показатели?

Запрет на использование технологий для военных целей без ограничений вызвал волну поддержки, что привело к удвоению числа платных подписчиков и утроению базы активных пользователей с начала 2026 года.

Какие сервисы по активности опередил Claude в марте 2026 года?

Продукт обошел Perplexity и Microsoft Copilot по числу ежедневных активных пользователей, хотя до абсолютного лидера рынка ChatGPT с его 250,5 миллионами человек разница остается значительной.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Бизнес; Аналитика и исследования; Тренды и кейсы; Управление и стратегия; Государственное управление и общественная сфера; Правительственные учреждения

Оценка значимости: 3 из 10

Событие представляет собой локальный для России процесс, так как описывает внутреннюю динамику рынка США и этические споры американской компании, не затрагивающие напрямую инфраструктуру или законодательство РФ; влияние ограничивается лишь косвенным интересом к глобальным трендам в сфере искусственного интеллекта и отсутствием системных последствий для российской экономики или общества.

Материалы по теме

Сделка OpenAI с Пентагоном: рост скачиваний конкурентов из-за репутационных рисков

Факт запрета использования технологий Anthropic федеральными агентствами и последующего обгона ChatGPT по скачиваниям стал фундаментом для тезиса о том, что отказ от военных контрактов трансформировался в маркетинговое преимущество, привлекающее пользователей, ценящих приватность.

Подробнее →
Anthropic против OpenAI: реклама в ИИ рушит доверие или спасает бизнес

Решение Anthropic отказаться от рекламы в Claude на фоне тестирования баннеров OpenAI использовано как ключевой аргумент в пользу того, что «этика» для пользователя означает не только безопасность данных, но и чистоту пользовательского опыта, что стало мощным конкурентным преимуществом.

Подробнее →
Китайские ИИ-лаборатории масштабно дистиллируют модели Anthropic через 24 000 фальшивых аккаунтов

Данные о масштабной дистилляции модели китайскими лабораториями через 24 тысячи фальшивых аккаунтов привели к выводу, что отказ от официальных военных контрактов не гарантирует защиту технологий от кражи обходными путями, ставя под сомнение логику «безопасного» продукта.

Подробнее →
Меморизация ИИ: модели запоминают 70% текстов популярных книг

Факт выплаты $1,5 млрд компенсации за использование пиратских материалов в обучении модели разрушил миф о компании как о «белом рыцаре», продемонстрировав парадокс: позиционирование себя этическим лидером в одних сферах сочетается с неэтичным поведением в других.

Подробнее →
Этика ИИ уступает бизнесу: что теряет отрасль в борьбе за миллиарды

Уход Мринанка Шармы, бывшего руководителя группы Safeguards, стал иллюстрацией внутренних противоречий между этическими принципами и коммерческими интересами, указывая на то, что безопасность часто уступает скорости выпуска новых моделей.

Подробнее →
Данные сотрудников утекают в ИИ: 77% корпоративной информации уже в чужих моделях

Статистика о том, что 77% корпоративных данных уже попадают в ИИ-инструменты без осознания сотрудников, усилила аргумент о том, что риски утечки выходят за рамки этических манифестов и требуют технической защиты инфраструктуры.

Подробнее →
ИИ стал оружием кибератак: как платформы вредоносных атак влияют на безопасность

Случай использования платформы Claude для создания вредоносного ПО, затронувшего более 30 организаций, подтвердил тезис о том, что даже при этических ограничениях технологии могут быть использованы злоумышленниками, превращая вопрос безопасности в проблему технической защиты.

Подробнее →