Anthropic сталкивается с давлением из-за политики ограничений ИИ
Компания Anthropic ограничивает использование своих моделей искусственного интеллекта для внутреннего наблюдения, что создаёт сложности для федеральных агентств США. Несмотря на это, она сотрудничает с государственными структурами, предоставляя специальные услуги по символической плате и внедряя свои технологии в системы с уровнем секретности «Secret».
Источник: Semafor
В условиях роста интереса к применению искусственного интеллекта в сфере обеспечения национальной безопасности, компания Anthropic становится объектом внимания со стороны администрации Трампа. Причиной напряжённости стало ограничение, установленное компанией на использование её моделей искусственного интеллекта в целях внутреннего наблюдения.
Политика компании и её последствия
Anthropic не разрешает использование своих моделей, таких как Claude, для анализа закрытых документов или иных задач, связанных с внутренними расследованиями. Это создаёт препятствия для федеральных подрядчиков, работающих с такими агентствами, как FBI и Секретная служба. По информации, Claude в некоторых случаях остаётся единственной моделью, одобренной для работы с документами секретного уровня через Amazon Web Services' GovCloud.
Однако, как отмечается, компания придерживается неоднозначной политики, которая может зависеть от политического контекста. Критики указывают, что формулировки в политике использования остаются слишком расплывчатыми, что открывает пространство для интерпретации.
Специальные соглашения и сотрудничество
Несмотря на ограничения, Anthropic предлагает специальные услуги для национальной безопасности, включая соглашение с федеральным правительством, по которому предоставляет свои модели за символическую плату в размере 1 доллара. Компания также сотрудничает с министерством обороны США, но запрещает использование своих моделей в разработке оружия.
В августе 2024 года OpenAI заключила аналогичное соглашение, предоставив более 2 миллионов сотрудников исполнительной ветви правительства доступ к ChatGPT Enterprise за 1 доллар в год. Это соглашение было заключено вскоре после подписания Генеральной администрации по закупкам (GSA), разрешившей поставки инструментов от OpenAI, Google и Anthropic.
Этические и политические дилеммы
Сложность позиции Anthropic заключается в балансе между соблюдением этических принципов, привлечением инвестиций и выполнением государственных контрактов. Например, в ноябре 2024 года компания подписала партнёрство с Palantir и Amazon Web Services, что позволило внедрить Claude в инфраструктуру Impact Level 6, где обрабатываются данные до уровня секретности «Secret». Это вызвало критику в сообществе специалистов по этике ИИ, которые видели в этом противоречие с позицией компании по безопасности ИИ.
Риски для безопасности и перспективы
Среди экспертов всё чаще поднимается вопрос о потенциальных рисках, связанных с использованием ИИ в системах наблюдения. В декабре 2023 года Брюс Шнайер, исследователь в области безопасности, отмечал, что ИИ может революционизировать массовое наблюдение, позволяя автоматически анализировать и обобщать огромные массивы данных. В отличие от традиционных методов, требующих значительных трудозатрат, ИИ способен обрабатывать информацию в масштабах, ранее недоступных.
В текущем контексте, с ростом возможностей ИИ, борьба за контроль над технологиями наблюдения и их регулированием только начинается.
Платный доступ к секретам: как ИИ меняет баланс между безопасностью и свободой
В условиях стремительного развития ИИ, компании, разрабатывающие крупные модели искусственного интеллекта, оказались в центре сложного баланса между государственными интересами, этическими обязательствами и коммерческой выгодой. Anthropic, разработчик модели Claude, сталкивается с давлением со стороны администрации Трампа, поскольку её политика не допускает использование ИИ для внутреннего наблюдения. Это решение создаёт препятствия для федеральных агентств, таких как FBI и Секретная служба, которые рассчитывают на автоматизацию анализа закрытых документов. При этом Claude остаётся единственной моделью, одобренной для работы с секретными документами через AWS GovCloud, что делает её ключевым игроком на этом рынке.
Этика и бизнес: противоречивая стратегия
Политика Anthropic выглядит противоречивой. С одной стороны, компания запрещает использование своих моделей в разработке оружия, что может быть воспринято как этическая позиция. С другой — предоставляет доступ к своим технологиям государственным структурам за символическую плату, включая сотрудничество с Министерством обороны США. Такая стратегия позволяет сохранять репутацию ответственного разработчика, не отказываясь от государственных контрактов. При этом неоднозначные формулировки в политике использования позволяют государственным агентствам интерпретировать условия в свою пользу, что вызывает обеспокоенность у специалистов в области этики ИИ.
Безопасность или слежка? Риски масштабного наблюдения
Внедрение ИИ в системы наблюдения открывает новые возможности для анализа данных, но одновременно увеличивает риски для приватности. В отличие от традиционных методов, требующих человеческого вмешательства, ИИ способен автоматически сортировать, классифицировать и интерпретировать миллионы документов в режиме реального времени. Это может стать мощным инструментом в борьбе с преступностью, но также порождает опасения по поводу массовой слежки и манипуляций. Как отмечал Брюс Шнайер, ИИ революционизирует наблюдение, сделав его недорогим, масштабным и почти незаметным. В этом контексте действия Anthropic и OpenAI могут быть не просто техническими, но и политически значимыми шагами, влияющими на будущую структуру государственного контроля.
Как это связано с Россией и что впереди
Для России, где вопросы национальной безопасности и контроля над ИИ становятся всё более актуальными, развитие таких технологий и их регулирование за рубежом представляют стратегический интерес. Если крупные западные компании будут продолжать ограничивать использование ИИ в целях внутреннего наблюдения, это может спровоцировать развитие альтернативных решений, включая локальные разработки. Россия уже сейчас активно инвестирует в создание собственных моделей ИИ, и позиции ведущих западных компаний могут усилить стремление к технологической автономии. Долгосрочная перспектива — формирование двух систем: одна, ориентированная на свободу и прозрачность, другая — на безопасность и контроль. Россия, как и другие страны, должна будет сделать выбор, в какую из этих систем ей выгоднее вписаться.