Сентябрь 2025   |   Обзор события   | 6

Anthropic сталкивается с давлением из-за политики ограничений ИИ

Компания Anthropic ограничивает использование своих моделей искусственного интеллекта для внутреннего наблюдения, что создаёт сложности для федеральных агентств США. Несмотря на это, она сотрудничает с государственными структурами, предоставляя специальные услуги по символической плате и внедряя свои технологии в системы с уровнем секретности «Secret».

ИСХОДНЫЙ НАРРАТИВ

Источник: Semafor

В условиях роста интереса к применению искусственного интеллекта в сфере обеспечения национальной безопасности, компания Anthropic становится объектом внимания со стороны администрации Трампа. Причиной напряжённости стало ограничение, установленное компанией на использование её моделей искусственного интеллекта в целях внутреннего наблюдения.

Политика компании и её последствия

Anthropic не разрешает использование своих моделей, таких как Claude, для анализа закрытых документов или иных задач, связанных с внутренними расследованиями. Это создаёт препятствия для федеральных подрядчиков, работающих с такими агентствами, как FBI и Секретная служба. По информации, Claude в некоторых случаях остаётся единственной моделью, одобренной для работы с документами секретного уровня через Amazon Web Services' GovCloud.

Однако, как отмечается, компания придерживается неоднозначной политики, которая может зависеть от политического контекста. Критики указывают, что формулировки в политике использования остаются слишком расплывчатыми, что открывает пространство для интерпретации.

Специальные соглашения и сотрудничество

Несмотря на ограничения, Anthropic предлагает специальные услуги для национальной безопасности, включая соглашение с федеральным правительством, по которому предоставляет свои модели за символическую плату в размере 1 доллара. Компания также сотрудничает с министерством обороны США, но запрещает использование своих моделей в разработке оружия.

В августе 2024 года OpenAI заключила аналогичное соглашение, предоставив более 2 миллионов сотрудников исполнительной ветви правительства доступ к ChatGPT Enterprise за 1 доллар в год. Это соглашение было заключено вскоре после подписания Генеральной администрации по закупкам (GSA), разрешившей поставки инструментов от OpenAI, Google и Anthropic.

Этические и политические дилеммы

Сложность позиции Anthropic заключается в балансе между соблюдением этических принципов, привлечением инвестиций и выполнением государственных контрактов. Например, в ноябре 2024 года компания подписала партнёрство с Palantir и Amazon Web Services, что позволило внедрить Claude в инфраструктуру Impact Level 6, где обрабатываются данные до уровня секретности «Secret». Это вызвало критику в сообществе специалистов по этике ИИ, которые видели в этом противоречие с позицией компании по безопасности ИИ.

Риски для безопасности и перспективы

Среди экспертов всё чаще поднимается вопрос о потенциальных рисках, связанных с использованием ИИ в системах наблюдения. В декабре 2023 года Брюс Шнайер, исследователь в области безопасности, отмечал, что ИИ может революционизировать массовое наблюдение, позволяя автоматически анализировать и обобщать огромные массивы данных. В отличие от традиционных методов, требующих значительных трудозатрат, ИИ способен обрабатывать информацию в масштабах, ранее недоступных.

В текущем контексте, с ростом возможностей ИИ, борьба за контроль над технологиями наблюдения и их регулированием только начинается.

АНАЛИТИЧЕСКИЙ РАЗБОР

Платный доступ к секретам: как ИИ меняет баланс между безопасностью и свободой

В условиях стремительного развития ИИ, компании, разрабатывающие крупные модели искусственного интеллекта, оказались в центре сложного баланса между государственными интересами, этическими обязательствами и коммерческой выгодой. Anthropic, разработчик модели Claude, сталкивается с давлением со стороны администрации Трампа, поскольку её политика не допускает использование ИИ для внутреннего наблюдения. Это решение создаёт препятствия для федеральных агентств, таких как FBI и Секретная служба, которые рассчитывают на автоматизацию анализа закрытых документов. При этом Claude остаётся единственной моделью, одобренной для работы с секретными документами через AWS GovCloud, что делает её ключевым игроком на этом рынке.

Этика и бизнес: противоречивая стратегия

Политика Anthropic выглядит противоречивой. С одной стороны, компания запрещает использование своих моделей в разработке оружия, что может быть воспринято как этическая позиция. С другой — предоставляет доступ к своим технологиям государственным структурам за символическую плату, включая сотрудничество с Министерством обороны США. Такая стратегия позволяет сохранять репутацию ответственного разработчика, не отказываясь от государственных контрактов. При этом неоднозначные формулировки в политике использования позволяют государственным агентствам интерпретировать условия в свою пользу, что вызывает обеспокоенность у специалистов в области этики ИИ.

Безопасность или слежка? Риски масштабного наблюдения

Внедрение ИИ в системы наблюдения открывает новые возможности для анализа данных, но одновременно увеличивает риски для приватности. В отличие от традиционных методов, требующих человеческого вмешательства, ИИ способен автоматически сортировать, классифицировать и интерпретировать миллионы документов в режиме реального времени. Это может стать мощным инструментом в борьбе с преступностью, но также порождает опасения по поводу массовой слежки и манипуляций. Как отмечал Брюс Шнайер, ИИ революционизирует наблюдение, сделав его недорогим, масштабным и почти незаметным. В этом контексте действия Anthropic и OpenAI могут быть не просто техническими, но и политически значимыми шагами, влияющими на будущую структуру государственного контроля.

Как это связано с Россией и что впереди

Для России, где вопросы национальной безопасности и контроля над ИИ становятся всё более актуальными, развитие таких технологий и их регулирование за рубежом представляют стратегический интерес. Если крупные западные компании будут продолжать ограничивать использование ИИ в целях внутреннего наблюдения, это может спровоцировать развитие альтернативных решений, включая локальные разработки. Россия уже сейчас активно инвестирует в создание собственных моделей ИИ, и позиции ведущих западных компаний могут усилить стремление к технологической автономии. Долгосрочная перспектива — формирование двух систем: одна, ориентированная на свободу и прозрачность, другая — на безопасность и контроль. Россия, как и другие страны, должна будет сделать выбор, в какую из этих систем ей выгоднее вписаться.

Коротко о главном

Согласованные контракты с государственными структурами остаются в силе

Компания предоставляет правительству США доступ к своим моделям за символическую плату в 1 доллар, включая сотрудничество с министерством обороны, но запрещает применение ИИ в разработке вооружений.

OpenAI предоставила доступ к ChatGPT Enterprise правительству США

В августе 2024 более 2 миллионов сотрудников получили доступ к ChatGPT за 1 доллар в год, что стало частью шире развертывающейся интеграции ИИ в государственные структуры.

Anthropic интегрировала модель Claude в систему Impact Level 6

В ноябре 2024 компания внедрила Claude в инфраструктуру, обрабатывающую данные уровня «Secret», что вызвало обеспокоенность в сообществе специалистов по этике ИИ.

ИИ может революционизировать масштабы внутреннего наблюдения

Эксперт Брюс Шнайер указал, что искусственный интеллект способен автоматически анализировать огромные массивы данных, что делает возможным массовое наблюдение ранее неосуществимого уровня.

Политика компании остаётся неоднозначной и подвержена интерпретации

Формулировки в условиях использования остаются расплывчатыми, что создаёт неопределённость в применении технологий и вызывает вопросы у федеральных подрядчиков.

Сложность баланса между этикой, бизнесом и государственными контрактами

Anthropic сталкивается с дилеммой соблюдения этических норм, привлечения инвестиций и выполнения государственных обязательств, что влияет на её позицию в сфере ИИ.

Рост интереса к регулированию ИИ в сфере безопасности

С развитием технологий наблюдения усиливается необходимость контроля и регулирования использования ИИ, что делает эту тему одной из центральных в политике и технологиях.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Государственное управление и общественная сфера

Оценка значимости: 6 из 10

Событие касается политики ведущей американской компании в области ИИ, что может отразиться на технологических и политических взаимодействиях между США и Россией. Ограничения на использование ИИ для внутреннего наблюдения и сотрудничество с американскими агентствами затрагивают вопросы национальной безопасности и этики, что может быть релевантно для российской аудитории. Однако влияние косвенное, региональное, затрагивает несколько сфер — политику, технологии, безопасность, но не затрагивает Россию напрямую.

Материалы по теме