Февраль 2026   |   Обзор события   | 6

ИИ переосмысливает безопасность кода: рост, сопротивление и гонка агентов

Искусственный интеллект переосмысливает безопасность кода, не только находя уязвимости, а понимая логику их возникновения и предлагая исправления — но это создаёт парадокс: чем умнее ИИ, тем больше он угрожает самому себе, если станет инструментом в руках злоумышленников. Этот сдвиг уже меняет баланс в кибербезопасности, заставляя топовые компании, от Google до Anthropic, разрабатывать агентов, которые могут предотвратить уязвимости до их появления, но всё ещё зависят от человеческого контроля.

ИСХОДНЫЙ НАРРАТИВ

По данным The Register, компания Anthropic представила новую функцию Claude Code Security, предназначенную для анализа кодовых баз и выявления уязвимостей с последующим предложением способов их устранения. Эта разработка стала центром внимания сообщества информационной безопасности. В настоящее время инструмент доступен в ограниченной исследовательской предварительной версии для корпоративных и командных клиентов. Открытые источники могут подать заявку на бесплатный и ускоренный доступ.

Анонс вызвал значительную реакцию на рынке. Некоторые акции в области кибербезопасности упали в цене. В частности, акции компании CrowdStrike снизились почти на 8%. Глава этой компании, Джордж Куртц, вступил в диалог с ИИ Claude, спросив, может ли новая функция заменить существующие решения. Claude ответил отрицательно.

Примеры внедрения ИИ в сфере безопасности

Аналогичные подходы уже применяются другими крупными технологическими компаниями. Amazon использует ИИ-агентов для поиска уязвимостей и предложения решений внутри корпоративных систем. Microsoft разработала собственную систему агентов, которая включает в себя приоритизацию устранения уязвимостей, автоматическое выявление затронутых устройств и инициацию исправлений.

В ноябре 2024 года Google заявила, что её инструмент Big Sleep стал первым ИИ, способным обнаружить уязвимость в памяти и устранить её до официального релиза кода. Недавно компания выпустила агента под названием CodeMender, который автоматически создаёт исправления, определяет корневую причину уязвимости и проверяет предложенные решения.

В октябре 2025 года OpenAI начала закрытое тестирование Aardvark, системы безопасности, построенной на GPT-5, которая предназначена для помощи разработчикам и командам безопасности в выявлении и устранении уязвимостей в масштабе.

Все эти инструменты, включая Claude Code Security, требуют подтверждения исправления от человека. Anthropic подчеркнула, что ни одно решение не применяется без одобрения разработчика. Система Claude Code Security учитывает контекст, а не только выполняет статический анализ кода. Она способна понимать взаимодействие компонентов, отслеживать передачу данных и находить сложные уязвимости, которые пропускают правила-ориентированные инструменты.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Перспективы и оценки экспертов

Разработчики и специалисты в области безопасности оценивают такие инструменты как полезные дополнения к существующим практикам. Как отметил Гленн Вайнштейн, глава компании Cloudsmith, любой инструмент, способствующий написанию более качественного и безопасного кода, является положительным шагом. Он подчеркнул, что Claude Code Security — лишь одна из многих защитных мер в широком спектре решений.

Исаак Эванс, руководитель компании Semgrep, выразил уверенность в потенциале ИИ в обеспечении безопасности. Он подчеркнул, что LLMs (модели на основе больших языковых моделей) демонстрируют хорошие результаты в выявлении уязвимостей. Однако, по его мнению, реальная проверка таких агентов будет происходить при масштабном внедрении.

Эксперты отмечают, что ИИ способен не только находить уязвимости, но и создавать новые векторы атак, поэтому важно, чтобы такие инструменты дополняли, а не заменяли человеческий фактор в обеспечении безопасности.

АНАЛИТИЧЕСКИЙ РАЗБОР

Рост интереса к ИИ в сфере обеспечения безопасности кода: за кадром

Роль человека в эпоху автоматизации

Новость о запуске Claude Code Security и аналогичных продуктов от Google, Microsoft и OpenAI демонстрирует, что ИИ всё глубже внедряется в процессы обеспечения безопасности кода. Однако ключевой момент заключается в том, что эти инструменты не заменяют разработчиков, а меняют характер их работы. Вместо рутинного поиска уязвимостей специалисты теперь сосредотачиваются на критическом анализе предложений ИИ. Это требует новых навыков, включая понимание логики работы алгоритмов и способность интерпретировать их выводы.

Реакция рынка на анонс Claude Code Security подтверждает значимость этой тенденции: акции компании CrowdStrike снизились почти на 8%. Ответ ИИ Claude на вопрос Джорджа Куртца, может ли его функция заменить существующие решения, был отрицательным. Это указывает на то, что рынок осознаёт, что автоматизация не устраняет необходимость человеческого контроля, а скорее меняет баланс между машинным предложением и человеческим решением.

Конкуренция и стратегии крупных игроков

Рост доли Anthropic на корпоративном рынке, подтверждённый стратегическими партнёрствами с Deloitte, Cognizant и Snowflake, демонстрирует, как компании начинают активно использовать ИИ-ассистенты для решения задач безопасности. Это создаёт давление на традиционных игроков, таких как CrowdStrike, которые теперь конкурируют не только с другими ИИ-инструментами, но и с экосистемами, включающими в себя как модели, так и интеграции в бизнес-процессы.

Кроме того, Anthropic делает модель Sonnet 4.6 стандартной для повседневных задач, снижая стоимость использования и увеличивая доступность. Это позволяет компании удерживать позиции на рынке, где растёт конкуренция и ужесточаются требования к эффективности. В то же время, OpenAI усиливает команду консультантов, что указывает на стремление к более глубокой интеграции ИИ в бизнес-процессы клиентов.

Риски и вызовы внедрения

Несмотря на прогресс, внедрение ИИ в безопасность кода не лишено рисков. Исследования показывают, что даже продвинутые модели, такие как Claude, остаются уязвимыми к нестандартным форматам ввода. Например, стихотворные запросы обходят защитные функции в 65% случаев, что особенно критично для моделей, связанных с вредоносным манипулированием [!]. Это требует пересмотра систем фильтрации и контроля, а также повышения уровня безопасности на уровне входных данных.

Важный нюанс: Рост автоматизации кибератак, ускоренный применением ИИ, демонстрирует, что те же технологии, которые используются для защиты, могут стать инструментом атакующих [!]. Злоумышленники уже используют ИИ для автоматизации написания вредоносных скриптов и шифрования данных, что делает их действия более эффективными и труднообнаружимыми.

Перспективы и выводы

Внедрение ИИ в безопасность кода — это не только технологическая инновация, а начало глубокой трансформации отрасли. Компании, которые смогут быстро адаптироваться, будут иметь преимущество. Однако важно понимать, что автоматизация не отменяет необходимости человеческого контроля. Внедрение новых инструментов требует пересмотра подходов к обучению, безопасности и оценке эффективности.

Важный нюанс: Роль человека в обеспечении безопасности кода не сокращается, а меняется. Это требует новых навыков, инвестиций в обучение и пересмотра подходов к оценке эффективности. Компании, которые будут готовы к этим изменениям, получат стратегическое преимущество.

Коротко о главном

Почему акции CrowdStrike упали почти на 8%?

После анонса Claude Code Security рынок оценил потенциальную угрозу для традиционных решений в области кибербезопасности, что привело к снижению стоимости акций компании.

Что делает Google с помощью CodeMender?

CodeMender автоматически создаёт исправления, определяет корневую причину уязвимости и проверяет решения, а также способен находить уязвимости в памяти до официального релиза кода.

Как OpenAI использует ИИ для обеспечения безопасности?

В октябре 2025 года OpenAI начала закрытое тестирование Aardvark — системы безопасности, построенной на GPT-5, которая помогает выявлять и устранять уязвимости в масштабе.

Почему Claude Code Security доступна только в исследовательской предварительной версии?

Инструмент пока предоставляется в ограниченном режиме для корпоративных клиентов и исследовательских команд, чтобы обеспечить тестирование и улучшение функционала перед массовым внедрением.

Почему все ИИ-инструменты безопасности требуют подтверждения от человека?

Чтобы избежать рисков введения новых уязвимостей, решения, предложенные ИИ, применяются только после одобрения разработчика.

Как оценивают ИИ-инструменты в безопасности специалисты?

Эксперты, такие как Гленн Вайнштейн и Исаак Эванс, считают такие инструменты полезными дополнениями к существующим практикам, но подчёркивают необходимость их использования в комплексе с человеческим контролем.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность

Оценка значимости: 6 из 10

Рост интереса к ИИ в сфере обеспечения безопасности кода касается глобальной технологической тенденции, которая косвенно затрагивает Россию, особенно в контексте развития IT-отрасли и кибербезопасности. Событие имеет региональный масштаб влияния, так как оно не ограничивается одной страной, но и не охватывает все регионы одновременно. Время воздействия среднесрочное, поскольку речь идет о развитии технологий, которое может постепенно влиять на рынок. Сферы влияния включают технологии и экономику, что добавляет событию многогранность. Последствия пока остаются умеренными, не затрагивая глубоких структурных изменений в отрасли.

Материалы по теме

Anthropic делает Sonnet 4.6 стандартом: мощные задачи теперь решаются дешевле

Переход Sonnet 4.6 в статус основной модели для повседневных задач и её использование в Claude Code укрепляют позиции Anthropic на рынке, где растёт конкуренция и необходимость снижения затрат. Это подчёркивает стратегию компании — смещение фокуса с экстремальной производительности на повседневную эффективность и доступность, что делает её продукты более конкурентоспособными в условиях экономического давления.

Подробнее →
OpenAI усиливает команду консультантов: почему 87% компаний не доходят до полноценного внедрения ИИ

Рост доли Anthropic на корпоративном рынке и её стратегические партнёрства с Deloitte, Cognizant и Snowflake демонстрируют, как компания использует экосистемный подход для усиления позиций в бизнесе. Это создаёт давление на традиционных игроков, таких как CrowdStrike, и показывает, что конкуренция в сфере ИИ уже не ограничивается технологиями, но включает и глубокую интеграцию в бизнес-процессы.

Подробнее →
ИИ ускоряет кибератаки: данные крадут за 25 минут

Рост автоматизации кибератак, ускоренный применением ИИ, показывает, что технологии, созданные для защиты, могут быть использованы и в атаках. Упоминание сокращения времени экспорта данных до 25 минут демонстрирует масштаб угрозы и необходимость пересмотра подходов к кибербезопасности, особенно в контексте уязвимостей ИИ-моделей.

Подробнее →
Стихотворные запросы обходят защиту AI в 65% случаев — уязвимость крупных LLM

Уязвимость крупных LLM к стихотворным запросам, обходящим защитные функции в 65% случаев, подчёркивает риски внедрения ИИ в безопасность кода. Это усиливает аргумент о том, что даже продвинутые модели требуют дополнительных мер контроля, особенно в задачах, связанных с потенциальным вредоносным манипулированием.

Подробнее →