Январь 2026   |   Обзор события   | 7

Дипфейки угрожают бизнесу: мошенники имитируют руководство с помощью ИИ

Рост угроз в сфере корпоративного мошенничества связан с появлением всё более реалистичных дипфейков, созданных с помощью генеративных ИИ-платформ и видео-генераторов. Используя имитацию голоса и вида высокопоставленных сотрудников, злоумышленники могут обманывать коллег, чтобы получить доступ к данным или перевести средства.

ИСХОДНЫЙ НАРРАТИВ

Рост угроз в сфере корпоративного мошенничества

По данным Cybersecurity-Insiders, 2026 год может стать переломным в истории корпоративной безопасности. Увеличение случаев мошенничества, включая атаки, основанные на дипфейках, связано с быстрым развитием и злоупотреблением технологиями искусственного интеллекта. Эксперты отмечают, что дипфейки становятся всё более точными и доступными, что открывает новую волну угроз для бизнеса.

Отчёт, подготовленный компанией Nametag, носит название «2026 Workforce Impersonation Report». В нём говорится, что генеративные ИИ-платформы, такие как ChatGPT, в сочетании с видео-генераторами вроде Sora 2, позволяют создавать убедительный аудио- и видеоконтент. Такие материалы могут имитировать высокопоставленных сотрудников — генеральных директоров, технических директоров, директоров по информационной безопасности и других членов руководства.

Угрозы, связанные с имитацией доверия

Имитация руководства — особенно опасная форма атак, поскольку она основывается на доверии внутри корпоративной структуры. Видеозвонок или голосовое сообщение, выглядящее как от представителя руководства, может легко убедить сотрудников перевести деньги, раскрыть конфиденциальные данные или предоставить доступ к защищённым системам. В отличие от традиционных писем-«фишинга», атаки на основе дипфейков сложнее обнаружить, так как они воспроизводят человеческое поведение, интонации и визуальные сигналы.

Nametag предупреждает, что в ближайшие месяцы может наблюдаться рост предложения так называемых Deepfake-as-a-Service (DaaS) на теневых рынках. Эти сервисы позволят даже начинающим хакерам приобрести готовые инструменты для создания дипфейков и запускать сложные схемы мошенничества без высокой технической квалификации. В результате атаки вроде фишинга от имени руководства, компрометации корпоративной почты и финансового манипулирования могут стать более частыми и успешными.

Экономические и репутационные последствия

Финансовые потери от таких атак могут быть значительными. С помощью реалистичных дипфейков злоумышленники могут выманивать миллионы рублей у организаций за считанные часы. Помимо прямых финансовых убытков, компании сталкиваются с риском повреждения репутации, юридических последствий и утраты доверия как среди сотрудников, так и среди партнёров и клиентов.

Интересно: Необходимо ли ускорить укрепление процессов верификации личности с развитием дипфейков, и имеется ли необходимость в обучении сотрудников новым угрозам?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда доверие становится уязвимостью

Рост угроз в сфере корпоративного мошенничества

С каждым годом технологии искусственного интеллекта становятся не только инструментом для бизнеса, но и оружием для преступников. Дипфейки, которые ещё несколько лет назад были несовершенной атакой с явными артефактами, сегодня превратились в угрозу, которую трудно отличить от реальности. Это не только вопрос безопасности — это сдвиг в том, как корпоративная культура воспринимает доверие.

Компании, которые раньше основывались на иерархии и личной связи, теперь сталкиваются с ситуацией, где даже голос или лицо руководителя могут быть подделаны. Это создаёт новую реальность, где каждый запрос, каждое решение, каждая авторизация требуют дополнительной проверки. ИИ, который помогал автоматизировать процессы, теперь заставляет их замедляться — и это не только парадокс, это критический фактор, который может изменить логику работы бизнеса.

Рост доли Google Gemini на рынке веб-сервисов ИИ с 5,7% до 21,5% за последние 12 месяцев демонстрирует, что технологическая экосистема стремительно развивается, и с ней растут и возможности злоумышленников. В то же время, ChatGPT, несмотря на потерю позиций, остаётся доминирующим игроком с долей 64,5% [!]. Это говорит о том, что генеративные ИИ-платформы становятся всё более доступными и востребованными, что, в свою очередь, увеличивает число потенциальных векторов атак.

Угрозы, связанные с имитацией доверия

Имитация руководства — это не только более сложная форма фишинга. Это атака на саму структуру управления. Когда сотрудник видит видеозвонок, который выглядит как от директора, он не задаётся вопросом, а действует. Это поведение, укоренившееся в корпоративной среде, теперь становится слабым местом.

Сервисы вроде Deepfake-as-a-Service (DaaS) делают эти атаки доступными даже для тех, кто не имеет технической подготовки. Это не значит, что все злоумышленники становятся профессионалами, но это означает, что количество атак резко растёт. А значит, и количество успешных атак тоже. В условиях, когда обучение сотрудников происходит медленнее, чем развивается технология, уязвимость системы растёт экспоненциально.

Важный нюанс: Доверие в бизнесе становится новым вектором атаки. Умение отличить подделку от реальности — не только навык, а необходимость.

Кроме того, исследования показывают, что крупные языковые модели, такие как ChatGPT, способны имитировать устойчивые черты характера, а не только копировать слова. Это позволяет злоумышленникам создавать более убедительные атаки, которые могут вызывать эмоциональный отклик у сотрудников и снижать бдительность [!]. Такие атаки становятся ещё более опасными, поскольку они не только технически точны, но и эмоционально манипулятивны.

Экономические и репутационные последствия

Потери от дипфейков — это не только деньги, украденные в ходе атаки. Это ещё и стоимость восстановления доверия, судебных разбирательств, перепроектирования процессов. Компании, которые не успевают адаптироваться, рискуют не только своими финансами, но и своей репутацией. В условиях, когда клиенты всё чаще выбирают партнёров на основе имиджа и прозрачности, утечка информации или фальшивый видеозвонок могут привести к краху.

Для российского бизнеса эта тенденция особенно важна. В условиях, когда внутренние коммуникации часто строятся на личных контактах, а процессы верификации остаются устаревшими, угроза становится критической. Необходимость внедрения систем проверки личности, обучения сотрудников и создания барьеров между доверием и действием — это не только шаги, это обязательные меры.

Важный нюанс: Бизнес должен перестать доверять только тому, что видит. Умение сомневаться — становится частью новой культуры безопасности.

Важно отметить, что международная координация в борьбе с дипфейками усиливается. В октябре 2025 года 65 стран подписали Конвенцию ООН против киберпреступности, в которой дипфейки были признаны одной из ключевых угроз [!]. Это свидетельствует о росте осознанности в глобальном масштабе, что может привести к более эффективным мерам защиты в будущем.

Технические и организационные меры защиты

Для минимизации рисков ключевым становится аудит внутренних процессов, внедрение систем поведенческой аналитики и геолокационных проверок. Современные решения позволяют выявлять аномалии в поведении пользователей, что помогает выявлять подозрительные действия до того, как они приведут к убыткам [!].

Кроме того, рост популярности ИИ-агентов в корпоративной среде создаёт новые точки входа для атак. По данным анализа, 35% компаний уже внедрили ИИ-агентов, а более 70% планируют это сделать в ближайшее время [!]. Это требует особого внимания к безопасности, поскольку такие агенты могут стать векторами фишинга и синтетического мошенничества.

Важный нюанс: Внедрение ИИ-агентов без должного контроля может привести к увеличению уязвимостей. Необходимо учитывать риски на этапе проектирования.

В заключение, дипфейки и атаки, основанные на генеративном ИИ, становятся реалией современного бизнеса. Они не только угрожают финансовой стабильности, но и меняют природу доверия в корпоративной среде. Для компаний, которые хотят оставаться в безопасности, важно не только внедрять технические меры, но и формировать культуру, где критическое мышление и проверка источников становятся стандартом.

Коротко о главном

Какие технологии используются для создания дипфейков в атаках на корпорации?

Генеративные ИИ-платформы, такие как ChatGPT, и видео-генераторы, вроде Sora 2, позволяют создавать убедительный аудио- и видеоконтент, имитирующий высокопоставленных сотрудников компаний.

Почему атаки на основе дипфейков сложнее обнаружить, чем фишинг?

Такие атаки воспроизводят человеческое поведение, интонации и визуальные сигналы, что делает их более реалистичными и затрудняет их распознавание сотрудниками.

Что такое Deepfake-as-a-Service (DaaS) и каковы его последствия?

Это сервисы, доступные на теневых рынках, которые позволяют даже начинающим хакерам создавать дипфейки, что увеличивает количество и успешность мошеннических атак.

Какие финансовые потери могут быть у компаний из-за дипфейков?

С помощью реалистичных дипфейков злоумышленники могут выманивать миллионы рублей у организаций за короткое время, что приводит к прямым убыткам и повреждению репутации.

Какие меры предлагают эксперты для борьбы с дипфейковыми атаками?

Эксперты рекомендуют ускорить укрепление процессов верификации личности, обучение сотрудников новым угрозам и внедрение ИИ-инструментов для обнаружения подделок.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Тренды и кейсы; Финансы

Оценка значимости: 7 из 10

Рост угроз в виде дипфейков, создаваемых с помощью ИИ, имеет национальное значение для России, так как затрагивает ключевые сферы — экономику, технологию и безопасность. Угроза касается как крупных компаний, так и государственных структур, что делает её актуальной для широкой аудитории. Последствия могут быть долгосрочными из-за постоянного развития технологий, а масштаб ущерба может включать финансовые потери и повреждение репутации.

Материалы по теме

ChatGPT теряет позиции: Google Gemini вырывает лидерство в ИИ

Данные о доле ChatGPT (64,5%) и Google Gemini (21,5%) в веб-трафике ИИ-сервисов подчеркивают динамику конкуренции в сфере генеративного ИИ, что используется как доказательство роста доступности и популярности таких платформ, увеличивающих риски кибератак.

Подробнее →
ИИ научился имитировать личность — что это значит для пользователей

Упоминание способности крупных языковых моделей имитировать черты характера и влиять на эмоциональное состояние пользователей служит примером, как ИИ может использоваться для создания более убедительных и манипулятивных атак, снижающих бдительность сотрудников.

Подробнее →
65 стран подписали ООН-конвенцию против киберпреступности по российской инициативе

Информация о подписании ООН-конвенции 65 странами против киберпреступности, включая борьбу с дипфейками, демонстрирует усиление международной осознанности угроз, связанных с ИИ, и служит аргументом в пользу необходимости глобальной координации в обеспечении кибербезопасности.

Подробнее →
Генеративный ИИ угрожает кибербезопасности: как защитить данные от дипфейков и атак

Данные о росте угроз безопасности из-за дипфейков и необходимости внедрения поведенческой аналитики и геолокационных проверок подкрепляют тезис о необходимости пересмотра традиционных методов защиты и внедрения новых технологий для предотвращения мошенничества.

Подробнее →
Бизнесы массово внедряют ИИ-агентов, но рискуют утечкой данных

Упоминание, что 35% компаний уже внедрили ИИ-агентов, а 70% планируют это сделать, подчеркивает рост популярности таких инструментов, а вместе с ним — увеличение уязвимостей, связанных с их использованием, что требует особого внимания к безопасности.

Подробнее →