Ноябрь 2025   |   Обзор события   | 6

93% экспертов: внутренние угрозы сложнее обнаружить, чем кибератаки

По данным опроса 635 специалистов по кибербезопасности, 93% считают что угрозы изнутри сложнее выявить, чем внешние атаки, и только 23% уверены в способности предотвратить такие угрозы до серьёзных последствий. Лишь 21% компаний используют данные о поведении сотрудников для оценки рисков, а 12% имеют развитые модели прогнозирования, что создаёт разрыв между уровнем угроз и возможностями их предотвращения.

ИСХОДНЫЙ НАРРАТИВ

Статистика

По данным «Отчёта по внутренним рискам 2025» (2025 Insider Risk Report), подготовленного Cybersecurity Insiders совместно с Cogility, 93% руководителей по информационной безопасности считают, что угрозы изнутри не проще, а сложнее выявить, чем внешние кибератаки. При этом лишь 23% уверены в том, что могут предотвратить такие угрозы до возникновения серьёзных последствий.

Анализ показывает, что, несмотря на рост числа угроз, связанных с искусственным интеллектом, и увеличение доли удалённых сотрудников, большинство компаний продолжают действовать в режиме реагирования, а не предотвращения. Исследование охватило 635 руководителей по безопасности и специалистов в области кибербезопасности.

Основные проблемы в выявлении внутренних угроз

Отсутствие комплексного подхода к мониторингу поведения сотрудников остаётся критическим фактором. Только 21% организаций активно используют данные из HR, показатели финансового напряжения или психосоциальные сигналы для выявления рисков. Остальные полагаются исключительно на технические аномалии, что ограничивает способность предсказывать действия.

В области прогнозной защиты ситуация ещё хуже. Всего 12% компаний имеют развитые модели прогнозирования рисков, тогда как угрозы, усиленные ИИ, растут. Это создаёт разрыв между осведомлённостью и реальными возможностями защиты.

Слабые места в стратегиях безопасности

Отчёт наглядно показывает, что внутренние угрозы не проявляются внезапно — они развиваются скрыто, часто в поле зрения, но остаются незамеченными. Как отметил Хольгер Шульце, основатель Cybersecurity Insiders, отсутствие контекста, такого как финансовые трудности или изменения в поведении, делает работу команды безопасности похожей на наблюдение за тенями. Если компании не модернизируют подходы, их данные могут оказаться в тёмной сети, прежде чем они узнают о компрометации.

Интересно: Каким образом традиционные модели кибербезопасности, ориентированные на технические аномалии, смогут противостоять внутренним угрозам, которые проявляются в поведении и эмоциональном состоянии сотрудников?

АНАЛИТИЧЕСКИЙ РАЗБОР

Кибербезопасность в эпоху ИИ: внутренние угрозы становятся критичным слабым звеном

Почему традиционная защита не справляется с внутренними угрозами

Большинство компаний до сих пор воспринимают киберугрозы как внешние атаки — хакеры, вирусы, DDoS-атаки. Однако внутренние угрозы, возникающие изнутри организации, становятся не только более частыми, но и более сложными для выявления. Причина в том, что они часто не связаны с техническими аномалиями, а проявляются через человеческий фактор: усталость, стресс, мотивацию, личные обиды или финансовые трудности.

Ключевой момент: 93% руководителей по информационной безопасности признают, что внутренние угрозы сложнее выявить, чем внешние. Это не случайно — они маскируются под нормальные рабочие процессы, используют доступ, который предоставляется сотрудникам, и не требуют сложных технических инструментов для совершения атак.

Современный ИИ ещё больше усложняет ситуацию. Он позволяет автоматизировать сбор данных, анализ поведения и даже создание убедительных фейков, что делает внутренние угрозы не только более масштабными, но и менее предсказуемыми. В то же время лишь 12% компаний имеют развитые модели прогнозирования рисков, что создаёт опасный разрыв между угрозой и защитой.

Скрытые мотивы и эффект домино

Внутренние угрозы — это не только случайные ошибки или преступные действия. Они часто являются следствием системных проблем внутри компании: неадекватная политика доступа, слабая система мониторинга поведения сотрудников, отсутствие обратной связи и поддержки. Например, сотрудник, который уходит из компании и уносит данные, может делать это не из вредительства, а из-за недовольства условиями труда.

Ключевой момент: Только 21% организаций используют данные из HR, финансовые показатели или психосоциальные сигналы для выявления рисков. Это означает, что в 79% случаев компании не видят «предвестников» внутренних угроз, пока они не станут критическими.

Это порождает эффект домино: одна утечка данных может спровоцировать потерю доверия клиентов, штрафы, судебные разбирательства, а также снижение мотивации внутри коллектива. Особенно это критично для российских компаний, где удалённая работа становится нормой, а контроль за сотрудниками слабее.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Парадоксы и новые правила игры

Одним из парадоксов современной кибербезопасности является то, что компании инвестируют в защиту от внешних угроз, но игнорируют внутренние. Это создаёт иллюзию безопасности, которая рушится в момент первой утечки данных. Особенно это опасно в условиях, когда ИИ позволяет автоматизировать не только защиту, но и атаки.

Ключевой момент: Внутренние угрозы становятся не просто риском, а новым правилом игры. Компаниям, которые не научатся анализировать поведение сотрудников и не внедрят прогнозную защиту, будет всё сложнее конкурировать на рынке.

Важный нюанс: Внедрение ИИ в кибербезопасность не должно становиться инструментом наблюдения за сотрудниками. Успех зависит от баланса между защитой данных и сохранением доверия внутри компании.

Что происходит в реальности: примеры и прогнозы

Среди тех, кто уже сталкивается с внутренними угрозами, — финансовые институты, ИТ-компании и телекоммуникационные операторы. В этих секторах данные особенно ценные, а утечка может привести к значительным финансовым потерям. Например, утечка клиентских данных может стать причиной массового оттока клиентов, а компрометация алгоритмов — угрозой конкурентоспособности.

Прогноз: в ближайшие два-три года внутренние угрозы станут основной причиной киберинцидентов. Это связано с ростом удалённой работы, увеличением доступа к корпоративным системам и развитием ИИ, который позволяет автоматизировать не только защиту, но и атаки.

Ключевой момент: Компаниям нужно начинать с малого: внедрять системы анализа поведения сотрудников, использовать данные из HR и финансовых систем, а также обучать сотрудников киберграмотности. Это поможет снизить риски до того, как они станут критичными.

Важный нюанс: Внедрение ИИ в кибербезопасность — это не только технический вызов, но и культурный. Компании должны научиться видеть угрозы не только в коде, но и в людях.

Углубление в цифры: ИИ-рынок и его влияние на угрозы

Рост спроса на ИИ-технологии уже отражается на рынке. Например, Samsung Electronics в третьем квартале увеличила операционную прибыль на 32,5% год к году, достигнув 12,2 триллиона вон ($8,6 млрд), благодаря увеличению спроса на чипы памяти, связанные с искусственным интеллектом [!]. TSMC также зафиксировала рекордную выручку в $33,1 млрд, из которых 57% пришлось на компоненты для ИИ и высокопроизводительных вычислений [!].

Это указывает на то, что ИИ становится не просто инструментом, а инфраструктурой, на которой строятся ключевые бизнес-процессы. Следовательно, угрозы, связанные с доступом к этим ресурсам, становятся критичными. Утечка алгоритмов или обученных моделей может стоить компании не только денег, но и стратегического преимущества.

Новые игроки и новые риски

Кроме традиционных ИТ-компаний, в ИИ-рынок входят и неожиданные участники. Например, бывшие криптомайнеры переориентируются на предоставление вычислительных мощностей для обучения ИИ-моделей, что создаёт новые точки риска. Эти компании уже заключают соглашения с ИИ-стартапами и крупными корпорациями, что демонстрирует рост спроса на инфраструктуру, но также увеличивает вероятность утечек и несанкционированного доступа [!].

Локальный ИИ: рост, вызовы и угрозы

В Китае пользовательская база генеративного ИИ удвоилась за полгода, достигнув 515 млн человек. Рост связан с государственной программой «AI Plus» и блокировкой западных платформ. Это создаёт новый рынок, где локальные модели, такие как Qwen и Doubao, конкурируют между собой. Однако рост популярности ИИ также усиливает риски фейкового контента, что требует адаптации правил модерации [!].

Контроль над фейками: ответ Google

Google, в свою очередь, запускает ИИ-систему для борьбы с поддельными видео на YouTube. Алгоритм требует от авторов предоставления удостоверяющих документов, а окончательное решение о удалении видео принимают модераторы. Развитие AI-моделей, таких как Veo 3.1 и Sora 2, упрощает создание фейкового контента, что делает такие меры всё более актуальными [!].

Выводы

ИИ становится не только инструментом, но и угрозой. Компаниям нужно переосмыслить подходы к кибербезопасности, учитывая не только технические, но и поведенческие риски. Внедрение прогнозных моделей, анализ данных из HR и финансовых систем, а также обучение сотрудников — это шаги, которые могут снизить вероятность утечек. Однако важно помнить, что баланс между защитой и доверием — ключ к долгосрочной устойчивости.

Коротко о главном

Сколько компаний уверены в возможности предотвратить внутренние угрозы до серьёзных последствий?

Только 23% организаций уверены, что могут предотвратить внутренние угрозы до возникновения значительных последствий, что подчёркивает проблему недостаточной защиты.

Почему большинство компаний не используют данные HR для выявления рисков?

Только 21% организаций применяют данные HR, финансовые или психосоциальные сигналы для оценки рисков, из-за чего остаются слепыми к поведенческим факторам, способным привести к утечкам данных.

Каковы показатели внедрения прогнозных моделей для борьбы с внутренними угрозами?

Только 12% компаний имеют развитые модели прогнозирования рисков, что создаёт разрыв с ростом угроз, усиленных искусственным интеллектом.

Как описывает проблему внутренних угроз Хольгер Шульце, основатель Cybersecurity Insiders?

Он отметил, что отсутствие контекста, такого как финансовые трудности или изменения поведения, делает работу по безопасности похожей на наблюдение за тенями, что снижает эффективность защиты.

Какие данные охватил «Отчёт по внутренним рискам 2025»?

Исследование включало мнения 635 руководителей по безопасности и специалистов в области кибербезопасности, что позволяет судить о текущем состоянии защиты от внутренних угроз на уровне отраслевых лидеров.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Персонал и развитие

Оценка значимости: 6 из 10

Событие имеет региональный или национальный масштаб в контексте кибербезопасности, что важно для российских компаний, работающих в цифровой среде. Оно затрагивает несколько сфер — технологическую, экономическую и социальную, поскольку касается поведения сотрудников и защиты данных. Воздействие умеренно долгосрочное, так как проблемы требуют системного подхода и модернизации. Поскольку речь идёт о глобальной тенденции, но с косвенным влиянием на Россию, оценка остаётся средней.

Материалы по теме

Samsung вырвалась вперёд: прибыль выросла на 32% из-за спроса на чипы для ИИ

Рост прибыли Samsung Electronics на 32,5% в третьем квартале 2025 года, обусловленный спросом на чипы для ИИ, иллюстрирует масштабную трансформацию инфраструктуры под искусственный интеллект. Эти данные усиливают аргумент о том, что ИИ становится не просто инструментом, а ключевым элементом экономики, что повышает значимость рисков, связанных с доступом к таким ресурсам.

Подробнее →
TSMC: рекордная выручка $33,1 млрд за счет компонентов для ИИ и высокопроизводительных вычислений

Рекордная выручка TSMC в $33,1 млрд, из которых 57% пришлось на компоненты для ИИ и высокопроизводительных вычислений, подтверждает тезис о росте спроса на ИИ-инфраструктуру. Эти цифры усиливают утверждение о том, что утечка алгоритмов и моделей может стоить компаниям стратегического преимущества.

Подробнее →
Криптомайнеры переходят на ИИ: что это значит для будущего вычислений

Переход бывших криптомайнеров к предоставлению вычислительных мощностей для ИИ демонстрирует рост спроса на ресурсы для обучения моделей, что увеличивает количество точек риска. Это подкрепляет идею о том, что новые участники рынка создают дополнительные слабые места в системе безопасности.

Подробнее →
Китайский ИИ: 515 млн пользователей за полгода — что движет ростом

Удвоение числа пользователей генеративного ИИ в Китае до 515 млн за полгода, связанное с блокировкой западных платформ и государственной поддержкой, показывает, как быстро развивается локальный рынок. Эти данные усиливают тезис о росте угроз, связанных с фейковым контентом, и необходимостью адаптации модерации.

Подробнее →
Google запускает ИИ-систему для борьбы с поддельными видео на YouTube

Внедрение Google ИИ-системы для борьбы с поддельными видео на YouTube, включая требования к авторам предоставления удостоверяющих документов, подчеркивает рост угроз, связанных с генерацией фейков. Это усиливает аргумент о том, что развитие AI-моделей, таких как Veo 3.1 и Sora 2, требует новых правил контроля.

Подробнее →