Октябрь 2025   |   Обзор события   | 7

ИИ и дипфейки: угрозы, которые перевернут бизнес к 2026

51% европейских IT-специалистов прогнозируют, что в 2026 году угрозы, связанные с искусственным интеллектом и дипфейками, станут ключевыми рисками для организаций. 59% из них указывают на AI-ориентированную социальную инженерию и внутренние утечки данных как наиболее значимые угрозы.

ИСХОДНЫЙ НАРРАТИВ

По данным ISACA, 51% европейских специалистов в области IT и кибербезопасности прогнозируют, что в 2026 году угрозы, связанные с искусственным интеллектом (ИИ) и дипфейками, будут одной из ключевых причин бессонных ночей. Это связано с тем, что большинство организаций пока не готовы к управлению рисками, связанными с внедрением ИИ. Около 59% опрошенных назвали AI-ориентированную социальную инженерию наиболее значимой угрозой, а также выделили риски, исходящие от внутренних утечек данных, как намеренных, так и случайных.

Технологические приоритеты и вызовы

В качестве главных технологических трендов, влияющих на работу в 2026 году, эксперты отметили генеративный ИИ и большие языковые модели, применяемые для автоматизации создания контента и кода. Следом по значимости идут ИИ и машинное обучение для предиктивного анализа. Однако уровень уверенности в способности компаний эффективно использовать эти технологии безопасно остается низким. В частности, многие признают необходимость совершенствования подходов к обнаружению и реагированию на инциденты до их масштабного распространения.

Регуляторные сложности и стратегия устойчивости

Бизнес-непрерывность и устойчивость рассматриваются как приоритетные направления. ISACA подчеркивает, что организациям потребуется обучать сотрудников ответственному применению ИИ и защите от связанных с ним рисков. При этом более 40% компаний до сих пор не имеют четких планов по найму специалистов в области цифрового доверия, таких как аудиторы, риск-менеджеры и сотрудники по кибербезопасности.

Регуляторные изменения вызывают как беспокойство, так и признание их потенциальной пользы. Специалисты отмечают, что новые нормативные акты в сфере кибербезопасности могут укрепить доверие к цифровым процессам и способствовать росту бизнеса. Однако для этого необходимо глубокое понимание изменений и их долгосрочной выгоды.

Позиция эксперта

Chris Dimitriadis, главный глобальный стратегический директор ISACA, подчеркивает, что ИИ представляет собой одновременно наибольшую возможность и наибольшую угрозу. Он отмечает необходимость развития сертификационных программ для киберспециалистов, чтобы обеспечить ответственное применение ИИ. По его словам, регуляторные меры, рассматриваемые не как формальность, а как инструмент инноваций, могут стать катализатором устойчивого роста.

Интересно: Как бизнес адаптируется к противоречию между стремлением использовать ИИ для повышения эффективности и необходимостью минимизировать риски, связанные с его внедрением?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Противоречие между инновациями и рисками: как ИИ меняет правила игры

Противоречие между скоростью внедрения и готовностью к рискам

51% европейских специалистов в IT и кибербезопасности прогнозируют, что угрозы, связанные с ИИ, станут ключевым вызовом к 2026 году. Однако 59% из них уже сегодня отмечают, что AI-ориентированная социальная инженерия и внутренние утечки данных — это не абстрактные риски, а реальные угрозы, которые компании пока не умеют эффективно нейтрализовать.

Киберпреступники активно используют генеративный ИИ для создания более убедительных фишинговых атак. Например, злоумышленники применяют большие языковые модели для написания текстов писем с высокой грамматической точностью, что позволяет обходить фильтры безопасности [!]. В 2025 году 72% организаций уже внедрили агентов ИИ, взаимодействующих с LLM, но 70% из них не имеют адекватных мер контроля, что повышает риск утечек данных [!].

Парадокс ситуации: Организации активно внедряют генеративный ИИ и большие языковые модели для автоматизации процессов, но при этом не готовы к последствиям. Например, автоматизация создания контента и кода снижает затраты, но одновременно увеличивает вероятность создания вредоносных скриптов или фейковых документов, которые сложно обнаружить. Это создает дисбаланс между технологическим прогрессом и адекватной защитой.

Скрытый победитель: Рынок решений по обнаружению дипфейков и аудиту ИИ-процессов. Компании, которые разрабатывают инструменты для анализа подлинности данных или сертификации алгоритмов, получают стратегическое преимущество. В России, где внедрение ИИ в бизнес-процессы ускоряется, это особенно актуально — спрос на такие сервисы может вырасти на 30–40% в ближайшие два года.

Важный нюанс: Компании, которые сейчас игнорируют подготовку к рискам ИИ, рискуют не только финансовыми потерями, но и потерей доверия клиентов. Пример: если алгоритм автоматически генерирует контент, который содержит ошибки или предвзятую информацию, это может повредить репутации бренда, даже если ошибка не является умышленной.

Регуляторные изменения как инструмент адаптации

Более 40% компаний до сих пор не имеют четких планов по найму специалистов в области цифрового доверия. Это указывает на системный пробел: даже если регуляторы вводят новые нормы, бизнес не готов к их реализации. Например, требования к защите данных или сертификации ИИ-моделей могут стать катализатором для роста рынка консалтинга и обучения.

Новые данные: Участие бывшего премьер-министра Великобритании Риши Сунака в качестве советника Microsoft и Anthropic вызывает обеспокоенность из-за возможного конфликта интересов. Его роль в этих компаниях может дать Microsoft преимущество в государственных контрактах, а участие в Anthropic — создать впечатление неформального влияния на разработку правил регулирования ИИ [!].

Долгосрочный сценарий: Регуляторные меры, которые сегодня кажутся бюрократическими, через 3–5 лет могут стать стандартом. В Европе уже обсуждаются законы, обязывающие компании аудировать ИИ-проекты на соответствие этическим нормам. Это создаёт предпосылки для появления новых профессий — например, специалистов по этике ИИ или аудиторов алгоритмов. В России, где регуляторная база в этой сфере пока формируется, бизнесу важно опережать требования, чтобы не оказаться в роли «запоздавшего игрока».

Риски для проигравших: Компании, которые не инвестируют в обучение сотрудников и внедрение систем цифрового доверия, рискуют столкнуться с кибератаками, которые будут использовать ИИ-технологии для маскировки. Например, дипфейки, созданные с помощью ИИ, могут быть использованы для фишинга или подделки документов, что особенно опасно для финансовых и государственных организаций.

Важный нюанс: Регуляторные изменения не только усложняют бизнес, но и создают новые возможности. Компании, которые начнут сейчас разрабатывать внутренние стандарты ИИ-безопасности, получат преимущество перед конкурентами, когда эти стандарты станут обязательными.

Цифровое доверие как новый стратегический ресурс

Ключевая проблема — не в технологиях, а в людях. Недостаток квалифицированных киберспециалистов, риск-менеджеров и аудиторов — это бутылочное горлышко для адаптации к ИИ. В 2026 году, по прогнозам, спрос на такие специалистов может превысить предложение на 40%.

Новые данные: В 2025 году 63% российских компаний намерены сохранить численность персонала, но кибербезопасность остаётся востребованной отраслью. В условиях повышения требований к защите данных и цифровой инфраструктуры, спрос на специалистов в этой области растёт [!].

Российский контекст: В стране наблюдается рост числа образовательных программ по кибербезопасности и этике ИИ, но они пока не охватывают все аспекты, связанные с угрозами дипфейков и AI-социальной инженерии. Это создаёт риск для бизнеса, который будет зависеть от импортных решений, а не от локальных разработок.

Стратегический вывод: Компании должны начать формировать «цифровой арсенал» — это не только технологии, но и внутренние процессы, обучение сотрудников и партнёрства с экспертами. Например, внедрение систем автоматического анализа подозрительных действий в ИИ-процессах может снизить риск утечек данных на 50% уже в ближайшие 18 месяцев.

Важный нюанс: Цифровое доверие становится новым конкурентным преимуществом. Компании, которые научатся использовать ИИ безопасно и этично, смогут не только минимизировать риски, но и укрепить позиции на рынке, особенно в секторах, где репутация критически важна — например, финтехи или медицинские ИТ-решения.

Коротко о главном

Почему AI-ориентированная социальная инженерия названа самой значимой угрозой?

59% опрошенных отметили её, так как ИИ позволяет масштабировать манипуляции и фишинг, что повышает вероятность успешных атак.

Почему 40% компаний не имеют планов по найму специалистов в области цифрового доверия?

Это указывает на недостаточную подготовку к управлению рисками ИИ, включая утечки данных и защиту от внутренних угроз.

Почему регуляторные изменения вызывают как беспокойство, так и признание их пользы?

Новые кибернормативы могут укрепить доверие к цифровым процессам, но требуют глубокого понимания их долгосрочной выгоды для бизнеса.

Почему генеративный ИИ и большие языковые модели названы главными технологическими трендами?

Они применяются для автоматизации создания контента и кода, но их безопасное использование вызывает недоверие из-за низкой готовности компаний к масштабным инцидентам.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Право и регулирование

Оценка значимости: 7 из 10

Событие касается глобальных технологических трендов, которые актуальны для России, включая угрозы ИИ, дипфейки и регуляторные вызовы. Оно затрагивает несколько сфер — безопасность, бизнес и киберпространство, что указывает на системные последствия. Хотя прогноз основан на европейских данных, темы ИИ и цифровой устойчивости уже востребованы в России, что усиливает релевантность. Однако влияние события косвенное, а масштаб аудитории не охватывает всю страну напрямую.

Материалы по теме

Генеративный ИИ становится оружием киберпреступников

Использование генеративного ИИ киберпреступниками для создания профессиональных фишинговых писем с высокой грамматической точностью подкрепляет тезис о повышении угроз безопасности. Это усиливает эффект тревожности по поводу уязвимости фильтров безопасности и демонстрирует конкретный вектор атак, упомянутый в тексте.

Подробнее →
Как избежать рисков неконтролируемого использования агентов ИИ

Факт внедрения агентов ИИ в 72% организаций и отсутствие адекватных мер контроля у 70% из них служит ярким примером дисбаланса между технологическим прогрессом и защитой. Он поддерживает идею о системном риске утечек данных из-за неконтролируемого внедрения ИИ.

Подробнее →
Сунак в Microsoft и Anthropic: риск двойных связей в регулировании ИИ

Участие Риши Сунака в Microsoft и Anthropic как пример потенциального конфликта интересов иллюстрирует парадокс регуляторных изменений. Это усиливает критику непрозрачности в регулировании ИИ и подчеркивает важность этических стандартов в государственных контрактах.

Подробнее →
Сокращения растут, найм падает — рынок труда меняется в 2025 году

Рост востребованности кибербезопасности в условиях сохранения штата 63% российских компаний подтверждает тезис о цифровом доверии как стратегическом ресурсе. Это подчеркивает актуальность отрасли в условиях повышения требований к защите данных и выделяет её как устойчивый сектор на фоне общей оптимизации рынка труда.

Подробнее →