93% экспертов: внутренние угрозы сложнее обнаружить, чем кибератаки
По данным опроса 635 специалистов по кибербезопасности, 93% считают что угрозы изнутри сложнее выявить, чем внешние атаки, и только 23% уверены в способности предотвратить такие угрозы до серьёзных последствий. Лишь 21% компаний используют данные о поведении сотрудников для оценки рисков, а 12% имеют развитые модели прогнозирования, что создаёт разрыв между уровнем угроз и возможностями их предотвращения.
Статистика
По данным «Отчёта по внутренним рискам 2025» (2025 Insider Risk Report), подготовленного Cybersecurity Insiders совместно с Cogility, 93% руководителей по информационной безопасности считают, что угрозы изнутри не проще, а сложнее выявить, чем внешние кибератаки. При этом лишь 23% уверены в том, что могут предотвратить такие угрозы до возникновения серьёзных последствий.
Анализ показывает, что, несмотря на рост числа угроз, связанных с искусственным интеллектом, и увеличение доли удалённых сотрудников, большинство компаний продолжают действовать в режиме реагирования, а не предотвращения. Исследование охватило 635 руководителей по безопасности и специалистов в области кибербезопасности.
Основные проблемы в выявлении внутренних угроз
Отсутствие комплексного подхода к мониторингу поведения сотрудников остаётся критическим фактором. Только 21% организаций активно используют данные из HR, показатели финансового напряжения или психосоциальные сигналы для выявления рисков. Остальные полагаются исключительно на технические аномалии, что ограничивает способность предсказывать действия.
В области прогнозной защиты ситуация ещё хуже. Всего 12% компаний имеют развитые модели прогнозирования рисков, тогда как угрозы, усиленные ИИ, растут. Это создаёт разрыв между осведомлённостью и реальными возможностями защиты.
Слабые места в стратегиях безопасности
Отчёт наглядно показывает, что внутренние угрозы не проявляются внезапно — они развиваются скрыто, часто в поле зрения, но остаются незамеченными. Как отметил Хольгер Шульце, основатель Cybersecurity Insiders, отсутствие контекста, такого как финансовые трудности или изменения в поведении, делает работу команды безопасности похожей на наблюдение за тенями. Если компании не модернизируют подходы, их данные могут оказаться в тёмной сети, прежде чем они узнают о компрометации.
Интересно: Каким образом традиционные модели кибербезопасности, ориентированные на технические аномалии, смогут противостоять внутренним угрозам, которые проявляются в поведении и эмоциональном состоянии сотрудников?
Кибербезопасность в эпоху ИИ: внутренние угрозы становятся критичным слабым звеном
Почему традиционная защита не справляется с внутренними угрозами
Большинство компаний до сих пор воспринимают киберугрозы как внешние атаки — хакеры, вирусы, DDoS-атаки. Однако внутренние угрозы, возникающие изнутри организации, становятся не только более частыми, но и более сложными для выявления. Причина в том, что они часто не связаны с техническими аномалиями, а проявляются через человеческий фактор: усталость, стресс, мотивацию, личные обиды или финансовые трудности.
Ключевой момент: 93% руководителей по информационной безопасности признают, что внутренние угрозы сложнее выявить, чем внешние. Это не случайно — они маскируются под нормальные рабочие процессы, используют доступ, который предоставляется сотрудникам, и не требуют сложных технических инструментов для совершения атак.
Современный ИИ ещё больше усложняет ситуацию. Он позволяет автоматизировать сбор данных, анализ поведения и даже создание убедительных фейков, что делает внутренние угрозы не только более масштабными, но и менее предсказуемыми. В то же время лишь 12% компаний имеют развитые модели прогнозирования рисков, что создаёт опасный разрыв между угрозой и защитой.
Скрытые мотивы и эффект домино
Внутренние угрозы — это не только случайные ошибки или преступные действия. Они часто являются следствием системных проблем внутри компании: неадекватная политика доступа, слабая система мониторинга поведения сотрудников, отсутствие обратной связи и поддержки. Например, сотрудник, который уходит из компании и уносит данные, может делать это не из вредительства, а из-за недовольства условиями труда.
Ключевой момент: Только 21% организаций используют данные из HR, финансовые показатели или психосоциальные сигналы для выявления рисков. Это означает, что в 79% случаев компании не видят «предвестников» внутренних угроз, пока они не станут критическими.
Это порождает эффект домино: одна утечка данных может спровоцировать потерю доверия клиентов, штрафы, судебные разбирательства, а также снижение мотивации внутри коллектива. Особенно это критично для российских компаний, где удалённая работа становится нормой, а контроль за сотрудниками слабее.

Парадоксы и новые правила игры
Одним из парадоксов современной кибербезопасности является то, что компании инвестируют в защиту от внешних угроз, но игнорируют внутренние. Это создаёт иллюзию безопасности, которая рушится в момент первой утечки данных. Особенно это опасно в условиях, когда ИИ позволяет автоматизировать не только защиту, но и атаки.
Ключевой момент: Внутренние угрозы становятся не просто риском, а новым правилом игры. Компаниям, которые не научатся анализировать поведение сотрудников и не внедрят прогнозную защиту, будет всё сложнее конкурировать на рынке.
Важный нюанс: Внедрение ИИ в кибербезопасность не должно становиться инструментом наблюдения за сотрудниками. Успех зависит от баланса между защитой данных и сохранением доверия внутри компании.
Что происходит в реальности: примеры и прогнозы
Среди тех, кто уже сталкивается с внутренними угрозами, — финансовые институты, ИТ-компании и телекоммуникационные операторы. В этих секторах данные особенно ценные, а утечка может привести к значительным финансовым потерям. Например, утечка клиентских данных может стать причиной массового оттока клиентов, а компрометация алгоритмов — угрозой конкурентоспособности.
Прогноз: в ближайшие два-три года внутренние угрозы станут основной причиной киберинцидентов. Это связано с ростом удалённой работы, увеличением доступа к корпоративным системам и развитием ИИ, который позволяет автоматизировать не только защиту, но и атаки.
Ключевой момент: Компаниям нужно начинать с малого: внедрять системы анализа поведения сотрудников, использовать данные из HR и финансовых систем, а также обучать сотрудников киберграмотности. Это поможет снизить риски до того, как они станут критичными.
Важный нюанс: Внедрение ИИ в кибербезопасность — это не только технический вызов, но и культурный. Компании должны научиться видеть угрозы не только в коде, но и в людях.
Углубление в цифры: ИИ-рынок и его влияние на угрозы
Рост спроса на ИИ-технологии уже отражается на рынке. Например, Samsung Electronics в третьем квартале увеличила операционную прибыль на 32,5% год к году, достигнув 12,2 триллиона вон ($8,6 млрд), благодаря увеличению спроса на чипы памяти, связанные с искусственным интеллектом [!]. TSMC также зафиксировала рекордную выручку в $33,1 млрд, из которых 57% пришлось на компоненты для ИИ и высокопроизводительных вычислений [!].
Это указывает на то, что ИИ становится не просто инструментом, а инфраструктурой, на которой строятся ключевые бизнес-процессы. Следовательно, угрозы, связанные с доступом к этим ресурсам, становятся критичными. Утечка алгоритмов или обученных моделей может стоить компании не только денег, но и стратегического преимущества.
Новые игроки и новые риски
Кроме традиционных ИТ-компаний, в ИИ-рынок входят и неожиданные участники. Например, бывшие криптомайнеры переориентируются на предоставление вычислительных мощностей для обучения ИИ-моделей, что создаёт новые точки риска. Эти компании уже заключают соглашения с ИИ-стартапами и крупными корпорациями, что демонстрирует рост спроса на инфраструктуру, но также увеличивает вероятность утечек и несанкционированного доступа [!].
Локальный ИИ: рост, вызовы и угрозы
В Китае пользовательская база генеративного ИИ удвоилась за полгода, достигнув 515 млн человек. Рост связан с государственной программой «AI Plus» и блокировкой западных платформ. Это создаёт новый рынок, где локальные модели, такие как Qwen и Doubao, конкурируют между собой. Однако рост популярности ИИ также усиливает риски фейкового контента, что требует адаптации правил модерации [!].
Контроль над фейками: ответ Google
Google, в свою очередь, запускает ИИ-систему для борьбы с поддельными видео на YouTube. Алгоритм требует от авторов предоставления удостоверяющих документов, а окончательное решение о удалении видео принимают модераторы. Развитие AI-моделей, таких как Veo 3.1 и Sora 2, упрощает создание фейкового контента, что делает такие меры всё более актуальными [!].
Выводы
ИИ становится не только инструментом, но и угрозой. Компаниям нужно переосмыслить подходы к кибербезопасности, учитывая не только технические, но и поведенческие риски. Внедрение прогнозных моделей, анализ данных из HR и финансовых систем, а также обучение сотрудников — это шаги, которые могут снизить вероятность утечек. Однако важно помнить, что баланс между защитой и доверием — ключ к долгосрочной устойчивости.