ИИ и дипфейки: угрозы, которые перевернут бизнес к 2026
51% европейских IT-специалистов прогнозируют, что в 2026 году угрозы, связанные с искусственным интеллектом и дипфейками, станут ключевыми рисками для организаций. 59% из них указывают на AI-ориентированную социальную инженерию и внутренние утечки данных как наиболее значимые угрозы.
По данным ISACA, 51% европейских специалистов в области IT и кибербезопасности прогнозируют, что в 2026 году угрозы, связанные с искусственным интеллектом (ИИ) и дипфейками, будут одной из ключевых причин бессонных ночей. Это связано с тем, что большинство организаций пока не готовы к управлению рисками, связанными с внедрением ИИ. Около 59% опрошенных назвали AI-ориентированную социальную инженерию наиболее значимой угрозой, а также выделили риски, исходящие от внутренних утечек данных, как намеренных, так и случайных.
Технологические приоритеты и вызовы
В качестве главных технологических трендов, влияющих на работу в 2026 году, эксперты отметили генеративный ИИ и большие языковые модели, применяемые для автоматизации создания контента и кода. Следом по значимости идут ИИ и машинное обучение для предиктивного анализа. Однако уровень уверенности в способности компаний эффективно использовать эти технологии безопасно остается низким. В частности, многие признают необходимость совершенствования подходов к обнаружению и реагированию на инциденты до их масштабного распространения.
Регуляторные сложности и стратегия устойчивости
Бизнес-непрерывность и устойчивость рассматриваются как приоритетные направления. ISACA подчеркивает, что организациям потребуется обучать сотрудников ответственному применению ИИ и защите от связанных с ним рисков. При этом более 40% компаний до сих пор не имеют четких планов по найму специалистов в области цифрового доверия, таких как аудиторы, риск-менеджеры и сотрудники по кибербезопасности.
Регуляторные изменения вызывают как беспокойство, так и признание их потенциальной пользы. Специалисты отмечают, что новые нормативные акты в сфере кибербезопасности могут укрепить доверие к цифровым процессам и способствовать росту бизнеса. Однако для этого необходимо глубокое понимание изменений и их долгосрочной выгоды.
Позиция эксперта
Chris Dimitriadis, главный глобальный стратегический директор ISACA, подчеркивает, что ИИ представляет собой одновременно наибольшую возможность и наибольшую угрозу. Он отмечает необходимость развития сертификационных программ для киберспециалистов, чтобы обеспечить ответственное применение ИИ. По его словам, регуляторные меры, рассматриваемые не как формальность, а как инструмент инноваций, могут стать катализатором устойчивого роста.
Интересно: Как бизнес адаптируется к противоречию между стремлением использовать ИИ для повышения эффективности и необходимостью минимизировать риски, связанные с его внедрением?

Противоречие между инновациями и рисками: как ИИ меняет правила игры
Противоречие между скоростью внедрения и готовностью к рискам
51% европейских специалистов в IT и кибербезопасности прогнозируют, что угрозы, связанные с ИИ, станут ключевым вызовом к 2026 году. Однако 59% из них уже сегодня отмечают, что AI-ориентированная социальная инженерия и внутренние утечки данных — это не абстрактные риски, а реальные угрозы, которые компании пока не умеют эффективно нейтрализовать.
Киберпреступники активно используют генеративный ИИ для создания более убедительных фишинговых атак. Например, злоумышленники применяют большие языковые модели для написания текстов писем с высокой грамматической точностью, что позволяет обходить фильтры безопасности [!]. В 2025 году 72% организаций уже внедрили агентов ИИ, взаимодействующих с LLM, но 70% из них не имеют адекватных мер контроля, что повышает риск утечек данных [!].
Парадокс ситуации: Организации активно внедряют генеративный ИИ и большие языковые модели для автоматизации процессов, но при этом не готовы к последствиям. Например, автоматизация создания контента и кода снижает затраты, но одновременно увеличивает вероятность создания вредоносных скриптов или фейковых документов, которые сложно обнаружить. Это создает дисбаланс между технологическим прогрессом и адекватной защитой.
Скрытый победитель: Рынок решений по обнаружению дипфейков и аудиту ИИ-процессов. Компании, которые разрабатывают инструменты для анализа подлинности данных или сертификации алгоритмов, получают стратегическое преимущество. В России, где внедрение ИИ в бизнес-процессы ускоряется, это особенно актуально — спрос на такие сервисы может вырасти на 30–40% в ближайшие два года.
Важный нюанс: Компании, которые сейчас игнорируют подготовку к рискам ИИ, рискуют не только финансовыми потерями, но и потерей доверия клиентов. Пример: если алгоритм автоматически генерирует контент, который содержит ошибки или предвзятую информацию, это может повредить репутации бренда, даже если ошибка не является умышленной.
Регуляторные изменения как инструмент адаптации
Более 40% компаний до сих пор не имеют четких планов по найму специалистов в области цифрового доверия. Это указывает на системный пробел: даже если регуляторы вводят новые нормы, бизнес не готов к их реализации. Например, требования к защите данных или сертификации ИИ-моделей могут стать катализатором для роста рынка консалтинга и обучения.
Новые данные: Участие бывшего премьер-министра Великобритании Риши Сунака в качестве советника Microsoft и Anthropic вызывает обеспокоенность из-за возможного конфликта интересов. Его роль в этих компаниях может дать Microsoft преимущество в государственных контрактах, а участие в Anthropic — создать впечатление неформального влияния на разработку правил регулирования ИИ [!].
Долгосрочный сценарий: Регуляторные меры, которые сегодня кажутся бюрократическими, через 3–5 лет могут стать стандартом. В Европе уже обсуждаются законы, обязывающие компании аудировать ИИ-проекты на соответствие этическим нормам. Это создаёт предпосылки для появления новых профессий — например, специалистов по этике ИИ или аудиторов алгоритмов. В России, где регуляторная база в этой сфере пока формируется, бизнесу важно опережать требования, чтобы не оказаться в роли «запоздавшего игрока».
Риски для проигравших: Компании, которые не инвестируют в обучение сотрудников и внедрение систем цифрового доверия, рискуют столкнуться с кибератаками, которые будут использовать ИИ-технологии для маскировки. Например, дипфейки, созданные с помощью ИИ, могут быть использованы для фишинга или подделки документов, что особенно опасно для финансовых и государственных организаций.
Важный нюанс: Регуляторные изменения не только усложняют бизнес, но и создают новые возможности. Компании, которые начнут сейчас разрабатывать внутренние стандарты ИИ-безопасности, получат преимущество перед конкурентами, когда эти стандарты станут обязательными.
Цифровое доверие как новый стратегический ресурс
Ключевая проблема — не в технологиях, а в людях. Недостаток квалифицированных киберспециалистов, риск-менеджеров и аудиторов — это бутылочное горлышко для адаптации к ИИ. В 2026 году, по прогнозам, спрос на такие специалистов может превысить предложение на 40%.
Новые данные: В 2025 году 63% российских компаний намерены сохранить численность персонала, но кибербезопасность остаётся востребованной отраслью. В условиях повышения требований к защите данных и цифровой инфраструктуры, спрос на специалистов в этой области растёт [!].
Российский контекст: В стране наблюдается рост числа образовательных программ по кибербезопасности и этике ИИ, но они пока не охватывают все аспекты, связанные с угрозами дипфейков и AI-социальной инженерии. Это создаёт риск для бизнеса, который будет зависеть от импортных решений, а не от локальных разработок.
Стратегический вывод: Компании должны начать формировать «цифровой арсенал» — это не только технологии, но и внутренние процессы, обучение сотрудников и партнёрства с экспертами. Например, внедрение систем автоматического анализа подозрительных действий в ИИ-процессах может снизить риск утечек данных на 50% уже в ближайшие 18 месяцев.
Важный нюанс: Цифровое доверие становится новым конкурентным преимуществом. Компании, которые научатся использовать ИИ безопасно и этично, смогут не только минимизировать риски, но и укрепить позиции на рынке, особенно в секторах, где репутация критически важна — например, финтехи или медицинские ИТ-решения.