Отказ от военных контрактов: этическая позиция Anthropic принесла рост аудитории на 183%
Отказ Anthropic от сотрудничества с Пентагоном превратил её из «рискованного поставщика» для государства в главного бенефициара рынка, где этика стала мощнее технологий. Пользователи массово мигрируют к Claude, утроив аудиторию за год и обогнав ChatGPT по темпам роста, что доказывает: в эпоху ИИ моральный выбор компании напрямую конвертируется в доминирующее рыночное преимущество.
По данным аналитических агентств Appfigures и Similarweb, компания Anthropic демонстрирует резкий рост показателей использования своего продукта Claude на фоне публичного конфликта с военным ведомством США. Отказ руководства компании предоставить доступ к своим системам искусственного интеллекта для задач массового наблюдения или создания полностью автономного оружия привел к тому, что модель была обозначена как риск в цепочке поставок для государственных структур. Однако реакция рынка показала обратную динамику: потребители стали активнее выбирать этот сервис, что подтверждается статистикой скачиваний и ежедневной активности пользователей.
Динамика мобильных установок и активной аудитории
В начале марта 2026 года количество ежедневных загрузок мобильного приложения Claude в США превысило показатели главного конкурента — ChatGPT. Согласно оценкам Appfigures, на 2 марта пользователи установили приложение от Anthropic 149 000 раз, тогда как для сервиса от OpenAI этот показатель составил 124 000 загрузок. Такой перевес в новых установках свидетельствует о высоком интересе аудитории к продукту сразу после новостей о позиции компании по вопросам этики и безопасности.
Более глубокий анализ пользовательской активности, проведенный Similarweb, выявил значительный прирост числа людей, регулярно использующих приложение на устройствах iOS и Android. На 2 марта количество ежедневных активных пользователей Claude достигло 11,3 миллиона человек. Это значение на 183% выше показателя начала года, когда аудитория составляла около 4 миллионов человек, и превысила данные февраля, где фиксируется отметка в 5 миллионов. Такой темп роста позволил продукту опередить по активности такие сервисы, как Perplexity и Microsoft Copilot.
Рост веб-трафика и позиционирование в рейтингах
Помимо мобильной платформы, наблюдается устойчивый рост интереса к веб-версии сервиса. Трафик на сайт Claude увеличился на 43% по сравнению с предыдущим месяцем и показал годовой прирост в 297,7%. В этот же период трафик основного конкурента снизился на 6,5%, что указывает на возможное перетекание части аудитории. Сервис Gemini от Google также продемонстрировал рост, но более умеренный — всего на 2,1%, что является замедлением по сравнению с предыдущими месяцами.
Компания Anthropic подтверждает позитивные тенденции, отмечая, что количество новых регистраций превысило отметку в один миллион человек в сутки. Приложение заняло первую строчку в рейтинге App Store в США и удерживает лидирующие позиции в 15 других странах, включая Великобританию, Германию, Францию и Канаду. Ежедневно фиксируется обновление рекордов по регистрации пользователей во всех регионах присутствия сервиса. Представитель компании сообщил, что с начала 2026 года количество активных пользователей утроилось, а число платных подписчиков удвоилось.
Влияние этической позиции на бизнес-показатели
События последних недель демонстрируют прямую связь между публичной позицией технологических компаний и поведением их клиентов. Решение Dario Amodei, генерального директора Anthropic, не допускать использования технологий для военных целей без ограничений, вызвало волну поддержки среди пользователей. Это привело к росту лояльности и увеличению базы активных клиентов, несмотря на то, что государственные структуры США отнесли компанию к категории рискованных поставщиков.
Рынок реагирует на подобные решения быстро: рост числа установок и активных пользователей совпал по времени с публикацией новостей о переговорах с Пентагоном. В то же время наблюдается тенденция к удалению приложения ChatGPT у части пользователей, что может свидетельствовать о пересмотре потребительских предпочтений в сторону сервисов с четкой этической позицией. Для бизнеса это означает, что репутационные факторы и прозрачность целей использования технологий становятся ключевыми драйверами роста аудитории, способными перевесить даже статус лидера рынка.
| Показатель | Claude (Anthropic) | ChatGPT (OpenAI) | Gemini (Google) |
|---|---|---|---|
| Ежедневные загрузки (США, 2 марта) | 149 000 | 124 000 | Данные не указаны |
| Ежедневные активные пользователи (мобильные, 2 марта) | 11,3 млн | 250,5 млн | Данные не указаны |
| Рост трафика за месяц (веб-версия) | +43% | -6,5% | +2,1% |
| Рост трафика за год (веб-версия) | +297,7% | Данные не указаны | Данные не указаны |
Ситуация на рынке искусственного интеллекта продолжает меняться под влиянием не только технологических обновлений, но и этических решений руководства компаний. Пользователи все чаще учитывают принципы работы сервисов при выборе инструмента, что создает новые возможности для игроков, готовых отстаивать свои ценности. Для российского бизнеса этот пример важен как демонстрация того, как прозрачность и четкая позиция могут стать конкурентным преимуществом в условиях высокой конкуренции и глобальных вызовов.
Этика как новая валюта: когда принципы становятся драйвером роста
События вокруг компании Anthropic демонстрируют редкий для технологического сектора феномен: публичный отказ от работы с военным ведомством США не привел к краху бизнеса, а запустил взрывной рост пользовательской базы. На первый взгляд, это выглядит как триумф морального выбора, где потребители голосуют кошельком за принципы. Однако за этой картиной скрывается более глубокая и прагматичная логика рынка. Когда крупный игрок объявляет себя «неудобным» для мощных структур, он автоматически получает статус безопасного пространства для частного сектора, уставшего от тотальной слежки.
Рост ежедневных загрузок приложения Claude до 149 000 в США, обогнавший показатели ChatGPT, — это не просто реакция на новостной повод. Это сигнал о смене парадигмы доверия. Пользователи интуитивно понимают: если система отказалась от задач массового наблюдения и создания автономного оружия, то данные внутри неё могут быть защищены лучше, чем у конкурентов, интегрированных в государственные программы. В мире, где цифровая приватность становится дефицитным ресурсом, этическая позиция трансформируется из абстрактной идеи в конкретный коммерческий актив.
Важный нюанс: Отказ от государственных контрактов в сфере обороны для Anthropic стал не потерей рынка, а мощным маркетинговым ходом, который привлек миллионы пользователей, ищущих гарантию конфиденциальности данных.

Цена морального выбора: скрытые издержки и внутренние противоречия
За видимым успехом скрывается сложная экономическая реальность. Решение Дарио Амодей (Dario Amodei) ограничить применение технологий создает для компании специфические риски, которые пока не видны на графиках роста трафика. Отказ от работы с Пентагоном и другими военными ведомствами означает автоматическую потерю доступа к огромному сегменту госзакупок США, где объемы финансирования исчисляются миллиардами долларов. В краткосрочной перспективе потребительский бум может компенсировать эти потери за счет массового рынка подписок, но в долгосрочной — компания рискует столкнуться с финансовым тупиком.
Бизнес-модель, построенная исключительно на B2C (бизнес для потребителя), требует колоссальных затрат на инфраструктуру и вычислительные мощности. Каждый новый пользователь генерирует нагрузку на серверы, которая должна быть оплачена. Если государственный заказчик готов платить фиксированные суммы за внедрение ИИ в свои системы без оглядки на маржинальность, то частный потребитель крайне чувствителен к цене подписки. Рост числа платных подписчиков вдвое с начала 2026 года — впечатляющий показатель, но он не гарантирует устойчивости, если основной источник сверхприбылей (госзаказы) будет закрыт навсегда.
Кроме того, статус «рискованного поставщика» для государственных структур может иметь побочные эффекты в других сферах. Крупные корпорации, работающие с государственными проектами или регулируемые отраслями (финансы, энергетика), могут начать опасаться интеграции решений от компании, находящейся в конфликте с властями. Это создает скрытый барьер для выхода на рынок B2B (бизнес для бизнеса) в сегментах, где репутация и соответствие требованиям регуляторов важнее этических манифестов.
Стоит учесть: Потеря доступа к госзаказам может стать фатальной для компании в моменте, когда рост потребительского рынка замедлится, а затраты на поддержку миллионов пользователей потребуют новых источников финансирования.
Парадокс доверия: этика против реальности
Анализ данных показывает не просто рост, а качественный сдвиг в поведении пользователей. Увеличение ежедневной активности на 183% и опережение таких гигантов, как Perplexity и Microsoft Copilot, свидетельствует о том, что аудитория готова мигрировать ради ценностей. Это явление напоминает ситуацию, когда люди массово переходят из одной социальной сети в другую не из-за новых функций, а из-за ощущения безопасности и приватности.
Однако за фасадом «этического лидера» скрываются серьезные противоречия. Уход Мринанка Шармы, бывшего руководителя группы Safeguards в Anthropic, указывает на внутренние трения между этическими принципами и коммерческими интересами [!]. Эксперт покинул компанию, отметив, что попытки сочетать этику с ускоренным ростом приводят к тому, что безопасность всё чаще уступает место скорости выпуска новых моделей. Это ставит под сомнение устойчивость заявленной миссии компании в условиях жесткой конкуренции.
Кроме того, репутация «безопасного» продукта сталкивается с реальностью глобальных угроз. Китайские лаборатории обвиняются в масштабной нелегальной дистилляции модели Claude через десятки тысяч фальшивых аккаунтов [!]. Этот факт показывает, что даже при отказе от официальных военных контрактов технологии могут быть украдены обходными путями. Отказ от сотрудничества с Пентагоном не гарантирует, что алгоритмы не попадут в руки потенциальных противников через третьих лиц, что ставит под вопрос саму логику «безопасного» продукта для корпоративных клиентов.
Юридические риски и монетизация без рекламы
Ситуация усложняется юридическими вызовами. Несмотря на публичную позицию в вопросах безопасности и оружия, компания столкнулась с серьезными претензиями в сфере интеллектуальной собственности. Суд признал использование пиратских материалов в обучении моделью нарушением прав, что привело к выплате $1,5 млрд компенсации [!]. Этот парадокс разрушает миф о «белом рыцаре»: Anthropic позиционирует себя как этический лидер в одних сферах, но может быть неэтичным в других, что создает риски для долгосрочной репутации.
Важным фактором роста лояльности пользователей стал отказ от рекламы. В то время как OpenAI начала тестировать баннерную рекламу в ChatGPT, Anthropic заявила, что Claude останется без спонсорских ссылок и навязчивых предложений [!]. Для пользователя «этика» часто означает не только отсутствие слежки, но и чистый пользовательский опыт без монетизации диалога. Это решение стало мощным конкурентным преимуществом в борьбе за внимание аудитории, уставшей от коммерциализации личных данных.
Тем не менее, риски утечки данных остаются актуальными для всей отрасли. Исследования показывают, что 77% корпоративных данных уже попадают в ИИ-инструменты, и многие сотрудники даже не осознают этого [!]. В условиях, когда злоумышленники используют ИИ для создания вредоносного ПО, затрагивающего десятки организаций [!], вопрос безопасности выходит за рамки этических манифестов и становится вопросом технической защиты инфраструктуры.
На фоне этого: Успех Anthropic доказывает, что в условиях высокой неопределенности пользователи готовы платить за гарантию безопасности данных, превращая этические ограничения в мощный коммерческий актив, однако внутренние конфликты и юридические риски могут подорвать эту стратегию в будущем.
Для российского бизнеса этот кейс несет важный урок: прозрачность и четкая позиция могут стать конкурентным преимуществом даже в условиях жесткой конкуренции с глобальными лидерами. В эпоху, когда доверие к технологиям падает, компания, которая открыто заявляет о своих границах использования ИИ, получает лояльность пользователей, которую невозможно купить рекламой. Однако этот путь требует огромной внутренней дисциплины и готовности к тому, что часть рынка будет потеряна безвозвратно.
Трафик на веб-версию Claude вырос на 297,7% за год, в то время как у основного конкурента он снизился. Это указывает на то, что пользователи не просто скачивают приложение из любопытства, а начинают активно использовать его для решения реальных задач. Если этот тренд сохранится, Anthropic может создать устойчивую экосистему, где этические принципы станут фундаментом бизнес-модели. Но ключевым фактором успеха станет способность компании масштабировать инфраструктуру без доступа к государственным субсидиям и контрактам, которые традиционно поддерживали развитие ИИ в США.
В конечном итоге, ситуация с Anthropic показывает, что технологии неразрывно связаны с политикой, этикой и общественным доверием. Компании, которые игнорируют этот факт, рискуют потерять связь с аудиторией, даже если их продукты технически совершенны. Те же, кто находит баланс между инновациями и ответственностью, получают шанс стать лидерами нового этапа развития искусственного интеллекта, но должны быть готовы к тому, что «этика» — это не только моральный выбор, но и сложная стратегическая игра с высокими ставками.
Источник: TechCrunch