Январь 2026   |   Обзор события   | 7

Агентные ИИ-системы растут: безопасность, контроль и масштабирование в фокусе

Агентные ИИ-системы всё чаще внедряются в операционные процессы крупных компаний, включая ИТ-операции, кибербезопасность и поддержку клиентов. Несмотря на рост инвестиций и масштабов использования, ключевым барьером остаётся недостаток наблюдаемости, который усложняет контроль над автономными действиями агентов и их влиянием на бизнес.

ИСХОДНЫЙ НАРРАТИВ

По данным Helpnetsecurity, агентные ИИ-системы (agentic AI) всё чаще становятся частью повседневных операционных функций крупных организаций. Речь идёт о таких направлениях, как ИТ-операции, кибербезопасность, обработка данных и поддержка клиентов. Более 70% респондентов в исследовании Dynatrace сообщили о внедрении AI-агентов в ИТ-операции и мониторинге систем, а почти половина — о применении агентных ИИ-систем как внутри, так и вне компании.

Расходы на агентные ИИ-системы демонстрируют устойчивую динамику роста. Ожидается, что в следующем году инвестиции будут увеличиваться, а сегодня многие компании вкладывают от двух до пяти миллионов долларов в год. Уровень финансирования тесно связан с масштабом задач, которые решаются с помощью агентных ИИ-систем — в первую очередь, это вопросы надёжности и операционной эффективности.

Основные барьеры и подходы к масштабированию

Внедрение агентных ИИ-систем пока остаётся неравномерным. Половина опрошенных организаций сообщила, что агентные ИИ-проекты уже работают в ограниченных условиях, а 44% — что такие проекты активно используются в отдельных подразделениях. В среднем, в компаниях функционируют от двух до десяти агентных ИИ-проектов.

ИТ-операции, кибербезопасность и обработка данных лидируют по уровню готовности к полноценной эксплуатации. В этих направлениях около половины проектов уже находятся в рабочем состоянии или в процессе оперативного внедрения.

Критерии для запуска агентных ИИ-проектов в основном связаны с технической производительностью. На первом месте — вопросы безопасности и конфиденциальности данных, далее следует точность и надёжность выводов ИИ. Также важна система мониторинга и контроля, где многие команды рассматривают наблюдаемость (observability) как необходимую предпосылку для масштабирования.

Однако недостаток наблюдаемости остаётся серьёзным препятствием. Основные проблемы — это обеспечение безопасности, конфиденциальности и соблюдение нормативных требований. Сложности возникают и при управлении агентами в масштабе. Ограниченная видимость поведения агентов и сложности в трассировке последствий автономных действий — частые проблемы, с которыми сталкиваются компании.

Эти проблемы усиливаются с ростом взаимосвязанности систем. Агентные ИИ-системы часто работают с множеством инструментов, моделей и источников данных, что требует реального времени для анализа решений и выполнения задач. Без этой информации команды сталкиваются с трудностями при диагностике неожиданного поведения или при сопоставлении технических сигналов с бизнес-результатами.

Роль наблюдаемости и человеческого контроля

Отчёт подчёркивает важность наблюдаемости как основного элемента контроля. Почти 70% респондентов уже используют инструменты наблюдаемости на этапе внедрения агентных ИИ-систем, а более половины — в процессе разработки и эксплуатации. Часто такие инструменты применяются для мониторинга качества обучающих данных, выявления аномалий в реальном времени, проверки выводов и обеспечения соответствия нормативам.

Несмотря на рост автономности, человеческий контроль остаётся стандартной практикой. Более двух третей решений, принимаемых агентными ИИ-системами, проверяются людьми. Наиболее распространёнными методами проверки являются контроль качества данных, ручной осмотр результатов и отслеживание дрейфа (drift). Полностью автономные агенты без надзора используют лишь немногие компании. В основном, создаётся смешанная модель — автономные и контролируемые агенты, в зависимости от задач и уровня риска.

Оценка эффективности и масштабирование

Оценка успеха внедрения агентных ИИ-систем в первую очередь связана с надёжностью. 60% респондентов указали, что техническая производительность — ключевой показатель успеха. Также важны операционная эффективность, продуктивность разработчиков и уровень удовлетворенности клиентов.

Методы мониторинга остаются разнообразными. Около половины компаний используют логи, метрики и трассировки, а почти столько же — ручную проверку взаимодействий между агентами. Часто применяются автоматические системы обнаружения аномалий и панели управления, хотя многие компании сочетают автоматизированные и ручные подходы.

Участники исследования описывают успех как способность систем сохранять производительность в условиях нагрузки и быстро восстанавливаться после сбоев. Учитывая скорость распространения ошибок между агентами, раннее обнаружение и оперативная реакция остаются ключевыми целями.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Управление масштабированием и контроль

Следующим этапом развития агентных ИИ-систем, как отмечено в отчёте, станет усиление управления и контроля. Команды указывают на необходимость единых фактических данных, стандартных метрик и согласованных правил, которые будут регулировать автономные действия. Наблюдаемость выступает как механизм, связывающий все эти элементы на протяжении жизненного цикла ИИ.

«Организации не замедляют внедрение, потому что сомневаются в ценности ИИ, а потому, что безопасное масштабирование автономных систем требует уверенности в том, что они будут работать надёжно и в соответствии с ожиданиями в реальных условиях», — отметил Алоис Райтбауэр (Alois Reitbauer), главный технологический стратег Dynatrace.

Агентные ИИ-системы расширяют операционную зону риска и усиливают зависимость от мониторинга, проверки и контроля. По мере того как больше проектов переходят в эксплуатацию, доверие становится операционной необходимостью, обеспечиваемой с помощью инструментов, процессов и человеческого суждения, работающих вместе.

АНАЛИТИЧЕСКИЙ РАЗБОР

Рост влияния агентных ИИ-систем: за кулисами цифровой трансформации

Когда ИИ становится частью инфраструктуры

Агентные ИИ-системы уже не только эксперименты в лабораториях — они становятся операционным элементом в компаниях, отвечающих за ИТ-поддержку, безопасность, анализ данных и клиентский сервис. Их внедрение ускоряется, а инвестиции растут. По данным исследования, более 70% респондентов уже внедрили AI-агентов в ИТ-операции и мониторинге систем, а почти половина — как внутри, так и вне компании. В среднем, в организациях функционируют от двух до десяти агентных ИИ-проектов [!].

Однако за этой динамикой скрываются сложные системные вызовы, которые начинают проявляться, как только агенты выходят за рамки тестовых сред. Агенты — это не только ИИ, которые делают что-то быстро. Это автономные субъекты, способные принимать решения, взаимодействовать с другими системами и адаптироваться. И чем больше они становятся частью операционной инфраструктуры, тем больше рисков возникает в управлении, контроле и предсказуемости.

Наблюдаемость как новый стандарт управления рисками

Одним из ключевых инсайтов становится рост ценности наблюдаемости (observability). Это не только мониторинг. Это способность видеть, как агенты принимают решения, где они взаимодействуют с другими системами и как их действия влияют на бизнес-результаты. Компании, которые не внедряют такие инструменты, рискуют столкнуться с непредсказуемыми последствиями: от ошибок в обработке данных до утечек конфиденциальной информации [!].

Важный нюанс: В Китае уже зафиксированы случаи несанкционированного доступа к корпоративной информации через открытые фреймворки ИИ. Это подчеркивает, что без наблюдаемости невозможно гарантировать, что агенты не станут источником утечек или уязвимостей. В условиях, когда агенты работают с множеством инструментов, моделей и источников данных, без четкой видимости их поведения и последствий, компании теряют контроль над своими системами.

Человеческий контроль как баланс между скоростью и безопасностью

Несмотря на рост автономности, человеческий контроль остается критически важным. Более двух третей решений, принимаемых агентными ИИ-системами, проверяются людьми. Это не из-за недоверия к ИИ, а потому что в бизнесе редко бывает, чтобы риск можно было полностью исключить. Особенно когда речь идет о конфиденциальных данных, критически важных системах и регуляторных требованиях.

Смешанный подход — автономные агенты с человеческим надзором — становится новой нормой. Он позволяет сохранить скорость и эффективность ИИ, но не отказывается от контроля. Это важно для российских компаний, которые работают в условиях повышенной регуляторной нагрузки и где любые утечки или ошибки могут иметь серьезные последствия. В банковском секторе США уже наблюдаются изменения в требованиях к кибербезопасности, где ИИ используется как инструмент защиты, но также требует усиления мер по предотвращению атак [!].

Масштабирование: когда рост становится сложным

С ростом количества агентов и их взаимодействия между собой, увеличиваются и сложности. Агенты начинают работать с множеством инструментов, моделей и источников данных. Это создает эффект домино: одна ошибка может распространиться по всей системе. Управление таким масштабом требует не только мощных инструментов, но и четко прописанных процессов, стандартов и правил.

Важный нюанс: В этом контексте особенно важна роль единых фактических данных, стандартных метрик и согласованных правил, которые будут регулировать автономные действия. Наблюдаемость выступает как механизм, связывающий все эти элементы на протяжении жизненного цикла ИИ. Она позволяет не только видеть, что происходит, но и понимать, почему это происходит.

Риски и двойное применение ИИ

Новые данные демонстрируют, что агентные ИИ-системы могут быть не только инструментами повышения эффективности, но и угрозами. Например, AI-агент ARTEMIS обнаружил девять уязвимостей в корпоративной сети за 10 часов с 82% точностью. При этом злоумышленники из Северной Кореи и Китая уже используют модели вроде ChatGPT и Claude для фишинга и атак на государственные системы [!]. Это показывает, что кибербезопасность становится критически важной в условиях роста как защитных, так и атакующих возможностей искусственного интеллекта.

Важный нюанс: Облачные системы ИИ расширяют атакуемую поверхность, создавая новые уязвимости. Злоумышленники используют новые возможности для обхода традиционных методов защиты, таких как брандмауэры и антивирусы, которые не справляются с быстро меняющимися угрозами [!]. Это требует внедрения современных решений, основанных на искусственном интеллекте, способных анализировать угрозы в реальном времени и автоматически реагировать на них.

Выводы

Агентные ИИ-системы становятся неотъемлемой частью цифровой инфраструктуры. Их внедрение ускоряется, но с этим растут и вызовы. Наблюдаемость, человеческий контроль и стратегическое управление рисками — ключевые элементы, которые определят успех или провал масштабирования. Для российских компаний особенно важно учитывать особенности регуляторной среды и уровень зрелости внутренних процессов. Тех, кто начнет внедрять агентные ИИ-системы без должного планирования, ждет не только технические сложности, но и потенциальные риски для бизнеса.

Коротко о главном

Каковы текущие инвестиции компаний в агентные ИИ-системы?

Многие компании вкладывают от двух до пяти миллионов долларов в год, что связано с масштабом задач, таких как повышение надёжности и операционной эффективности.

Какие направления наиболее активно внедряют агентные ИИ-системы?

ИТ-операции, кибербезопасность и обработка данных лидируют по уровню готовности к полноценной эксплуатации, так как около половины проектов в этих сферах уже работают или внедряются.

Почему недостаток наблюдаемости является барьером для масштабирования?

Ограниченная видимость поведения агентов и сложности в трассировке последствий их автономных действий приводят к трудностям при диагностике неожиданного поведения и сопоставлении технических сигналов с бизнес-результатами.

Какова роль наблюдаемости при внедрении агентных ИИ-систем?

Почти 70% респондентов используют инструменты наблюдаемости на этапе внедрения, чтобы мониторить качество данных, выявлять аномалии и обеспечивать соответствие нормативам.

Почему человеческий контроль остаётся важным при работе с агентными ИИ-системами?

Более двух третей решений, принимаемых агентами, проверяются людьми, чтобы минимизировать риски, особенно в условиях ограниченной автономности и высокой сложности систем.

Как оценивается эффективность агентных ИИ-систем?

Основной критерий — техническая надёжность, указали 60% респондентов, что связано с необходимостью стабильной работы систем в условиях нагрузки и способностью к восстановлению после сбоев.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Управление и стратегия; Цифровизация и технологии; Передовые технологии

Оценка значимости: 7 из 10

Рост внедрения агентных ИИ-систем затрагивает несколько ключевых сфер — ИТ, безопасность, обработку данных и клиентскую поддержку, что указывает на широкое влияние. Хотя событие зарубежное, оно имеет прямое отношение к России, особенно в контексте цифровизации и технологического развития. Время воздействия среднесрочное, так как речь идёт о постепенном внедрении и масштабировании. Глубина последствий значительна, поскольку речь идёт о фундаментальных изменениях в операционных процессах, включая вопросы безопасности и контроля, что особенно актуально для российских компаний.

Материалы по теме

ИИ переходит из экспериментов в реальные бизнес-процессы

Упоминание о том, что в организациях функционируют от двух до десяти агентных ИИ-проектов, используется для иллюстрации масштаба внедрения ИИ в операционные процессы компаний. Это подкрепляет тезис о том, что агентные системы уже вышли за рамки экспериментов и стали частью повседневной инфраструктуры.

Подробнее →
Риски ИИ: дипфейки, утечки данных и алгоритмическая предвзятость

Данные о случаях несанкционированного доступа к корпоративной информации через открытые фреймворки ИИ в Китае используются как пример рисков, связанных с низкой наблюдаемостью. Это усиливает аргумент о том, что без прозрачности и контроля за действиями агентов компании рискуют потерять контроль над своими системами.

Подробнее →
ИИ в банковском секторе: какие навыки останутся в цене

Упоминание изменений в требованиях к кибербезопасности в банковском секторе США используется для подчеркивания важности человеческого контроля и регуляторных ограничений при работе с ИИ. Это помогает обосновать необходимость смешанного подхода — автономия ИИ плюс человеческий надзор.

Подробнее →
AI-агент нашел больше уязвимостей, чем хакеры — и обошелся дешевле

Сведения о том, что AI-агент ARTEMIS обнаружил девять уязвимостей в корпоративной сети за 10 часов с 82% точностью, а также о том, что злоумышленники из Северной Кореи и Китая используют модели ИИ для атак, служат доказательством двойственного применения агентных систем. Это усиливает тезис о критической важности кибербезопасности в эпоху роста ИИ.

Подробнее →
Искусственный интеллект расширяет уязвимости в облачных системах

Утверждение, что ИИ расширяет атакуемую поверхность в облачных системах и позволяет злоумышленникам обходить традиционные методы защиты, используется для аргументации необходимости внедрения современных решений, основанных на ИИ, для обеспечения кибербезопасности. Это поддерживает идею о том, что старые подходы больше не справляются с новыми угрозами.

Подробнее →