Дипфейки угрожают бизнесу: мошенники имитируют руководство с помощью ИИ
Рост угроз в сфере корпоративного мошенничества связан с появлением всё более реалистичных дипфейков, созданных с помощью генеративных ИИ-платформ и видео-генераторов. Используя имитацию голоса и вида высокопоставленных сотрудников, злоумышленники могут обманывать коллег, чтобы получить доступ к данным или перевести средства.
Рост угроз в сфере корпоративного мошенничества
По данным Cybersecurity-Insiders, 2026 год может стать переломным в истории корпоративной безопасности. Увеличение случаев мошенничества, включая атаки, основанные на дипфейках, связано с быстрым развитием и злоупотреблением технологиями искусственного интеллекта. Эксперты отмечают, что дипфейки становятся всё более точными и доступными, что открывает новую волну угроз для бизнеса.
Отчёт, подготовленный компанией Nametag, носит название «2026 Workforce Impersonation Report». В нём говорится, что генеративные ИИ-платформы, такие как ChatGPT, в сочетании с видео-генераторами вроде Sora 2, позволяют создавать убедительный аудио- и видеоконтент. Такие материалы могут имитировать высокопоставленных сотрудников — генеральных директоров, технических директоров, директоров по информационной безопасности и других членов руководства.
Угрозы, связанные с имитацией доверия
Имитация руководства — особенно опасная форма атак, поскольку она основывается на доверии внутри корпоративной структуры. Видеозвонок или голосовое сообщение, выглядящее как от представителя руководства, может легко убедить сотрудников перевести деньги, раскрыть конфиденциальные данные или предоставить доступ к защищённым системам. В отличие от традиционных писем-«фишинга», атаки на основе дипфейков сложнее обнаружить, так как они воспроизводят человеческое поведение, интонации и визуальные сигналы.
Nametag предупреждает, что в ближайшие месяцы может наблюдаться рост предложения так называемых Deepfake-as-a-Service (DaaS) на теневых рынках. Эти сервисы позволят даже начинающим хакерам приобрести готовые инструменты для создания дипфейков и запускать сложные схемы мошенничества без высокой технической квалификации. В результате атаки вроде фишинга от имени руководства, компрометации корпоративной почты и финансового манипулирования могут стать более частыми и успешными.
Экономические и репутационные последствия
Финансовые потери от таких атак могут быть значительными. С помощью реалистичных дипфейков злоумышленники могут выманивать миллионы рублей у организаций за считанные часы. Помимо прямых финансовых убытков, компании сталкиваются с риском повреждения репутации, юридических последствий и утраты доверия как среди сотрудников, так и среди партнёров и клиентов.
Интересно: Необходимо ли ускорить укрепление процессов верификации личности с развитием дипфейков, и имеется ли необходимость в обучении сотрудников новым угрозам?

Когда доверие становится уязвимостью
Рост угроз в сфере корпоративного мошенничества
С каждым годом технологии искусственного интеллекта становятся не только инструментом для бизнеса, но и оружием для преступников. Дипфейки, которые ещё несколько лет назад были несовершенной атакой с явными артефактами, сегодня превратились в угрозу, которую трудно отличить от реальности. Это не только вопрос безопасности — это сдвиг в том, как корпоративная культура воспринимает доверие.
Компании, которые раньше основывались на иерархии и личной связи, теперь сталкиваются с ситуацией, где даже голос или лицо руководителя могут быть подделаны. Это создаёт новую реальность, где каждый запрос, каждое решение, каждая авторизация требуют дополнительной проверки. ИИ, который помогал автоматизировать процессы, теперь заставляет их замедляться — и это не только парадокс, это критический фактор, который может изменить логику работы бизнеса.
Рост доли Google Gemini на рынке веб-сервисов ИИ с 5,7% до 21,5% за последние 12 месяцев демонстрирует, что технологическая экосистема стремительно развивается, и с ней растут и возможности злоумышленников. В то же время, ChatGPT, несмотря на потерю позиций, остаётся доминирующим игроком с долей 64,5% [!]. Это говорит о том, что генеративные ИИ-платформы становятся всё более доступными и востребованными, что, в свою очередь, увеличивает число потенциальных векторов атак.
Угрозы, связанные с имитацией доверия
Имитация руководства — это не только более сложная форма фишинга. Это атака на саму структуру управления. Когда сотрудник видит видеозвонок, который выглядит как от директора, он не задаётся вопросом, а действует. Это поведение, укоренившееся в корпоративной среде, теперь становится слабым местом.
Сервисы вроде Deepfake-as-a-Service (DaaS) делают эти атаки доступными даже для тех, кто не имеет технической подготовки. Это не значит, что все злоумышленники становятся профессионалами, но это означает, что количество атак резко растёт. А значит, и количество успешных атак тоже. В условиях, когда обучение сотрудников происходит медленнее, чем развивается технология, уязвимость системы растёт экспоненциально.
Важный нюанс: Доверие в бизнесе становится новым вектором атаки. Умение отличить подделку от реальности — не только навык, а необходимость.
Кроме того, исследования показывают, что крупные языковые модели, такие как ChatGPT, способны имитировать устойчивые черты характера, а не только копировать слова. Это позволяет злоумышленникам создавать более убедительные атаки, которые могут вызывать эмоциональный отклик у сотрудников и снижать бдительность [!]. Такие атаки становятся ещё более опасными, поскольку они не только технически точны, но и эмоционально манипулятивны.
Экономические и репутационные последствия
Потери от дипфейков — это не только деньги, украденные в ходе атаки. Это ещё и стоимость восстановления доверия, судебных разбирательств, перепроектирования процессов. Компании, которые не успевают адаптироваться, рискуют не только своими финансами, но и своей репутацией. В условиях, когда клиенты всё чаще выбирают партнёров на основе имиджа и прозрачности, утечка информации или фальшивый видеозвонок могут привести к краху.
Для российского бизнеса эта тенденция особенно важна. В условиях, когда внутренние коммуникации часто строятся на личных контактах, а процессы верификации остаются устаревшими, угроза становится критической. Необходимость внедрения систем проверки личности, обучения сотрудников и создания барьеров между доверием и действием — это не только шаги, это обязательные меры.
Важный нюанс: Бизнес должен перестать доверять только тому, что видит. Умение сомневаться — становится частью новой культуры безопасности.
Важно отметить, что международная координация в борьбе с дипфейками усиливается. В октябре 2025 года 65 стран подписали Конвенцию ООН против киберпреступности, в которой дипфейки были признаны одной из ключевых угроз [!]. Это свидетельствует о росте осознанности в глобальном масштабе, что может привести к более эффективным мерам защиты в будущем.
Технические и организационные меры защиты
Для минимизации рисков ключевым становится аудит внутренних процессов, внедрение систем поведенческой аналитики и геолокационных проверок. Современные решения позволяют выявлять аномалии в поведении пользователей, что помогает выявлять подозрительные действия до того, как они приведут к убыткам [!].
Кроме того, рост популярности ИИ-агентов в корпоративной среде создаёт новые точки входа для атак. По данным анализа, 35% компаний уже внедрили ИИ-агентов, а более 70% планируют это сделать в ближайшее время [!]. Это требует особого внимания к безопасности, поскольку такие агенты могут стать векторами фишинга и синтетического мошенничества.
Важный нюанс: Внедрение ИИ-агентов без должного контроля может привести к увеличению уязвимостей. Необходимо учитывать риски на этапе проектирования.
В заключение, дипфейки и атаки, основанные на генеративном ИИ, становятся реалией современного бизнеса. Они не только угрожают финансовой стабильности, но и меняют природу доверия в корпоративной среде. Для компаний, которые хотят оставаться в безопасности, важно не только внедрять технические меры, но и формировать культуру, где критическое мышление и проверка источников становятся стандартом.
Источник: cybersecurity-insiders.com