Дипфейк
Дипфейк в новостной повестке, календарь упоминаний и aналитика в реальном времени.
Календарь упоминаний:
Дипфейки как триггер возврата к очной верификации личности
Использование технологий дипфейков при найме создает серьезные риски для безопасности, позволяя злоумышленникам создавать убедительные поддельные профили, голоса и видеозаписи. Опрос рекрутеров показал, что 17% из них сталкивались с кандидатами, применявшими синтезированные видео для прохождения собеседований. В ответ на невозможность дистанционной проверки подлинности многие компании начинают рассматривать физическое присутствие сотрудника как единственный надежный способ верификации личности, особенно для позиций с доступом к чувствительным данным.
Дипфейк как инструмент масштабных финансовых атак
Дипфейк используется злоумышленниками для создания убедительных видеозвонков, в ходе которых сотрудники компаний могут быть обмануты на переводы крупных сумм. В 2024 году в Гонконге атака с применением дипфейков привела к потере $25 млн. Такие атаки показывают, что даже продвинутые системы защиты уязвимы, если не учитываются новые векторы, основанные на генеративных алгоритмах. Это требует пересмотра подходов к кибербезопасности и обеспечения полного контроля над всеми устройствами.
Рост угроз мошенничества из-за дипфейков
Дипфейки становятся всё более точными и доступными благодаря развитию технологий искусственного интеллекта, таких как генеративные ИИ-платформы и видео-генераторы. Они позволяют создавать убедительный аудио- и видеоконтент, имитирующий высокопоставленных сотрудников компаний. Такие атаки используют доверие внутри корпоративной структуры, чтобы манипулировать сотрудниками, заставляя их раскрывать конфиденциальные данные или переводить деньги. Рост популярности сервисов Deepfake-as-a-Service делает эти угрозы доступными даже для начинающих хакеров, что увеличивает риск финансовых потерь и повреждения репутации бизнеса.
Рост цен как следствие кибератак на бизнес
Более трети малых и средних компаний США повысили цены после кибератак, чтобы компенсировать потери. Это приводит к скрытым издержкам, которые теперь ложатся на потребителей. Киберпреступники всё чаще используют искусственный интеллект для создания дипфейков и других угроз, что затрудняет защиту. Многие компании признали недостаточную готовность к таким атакам, что усиливает их экономическую уязвимость.
Рост рисков и регулирование дипфейков в рекламе
Дипфейки, созданные с помощью искусственного интеллекта, активно используются в рекламе, включая фальшивых экспертов, манипулированные видео и аудиоконтент. Рост числа таких объявлений, особенно среди пожилых людей, вынудил Южную Корею ввести обязательную маркировку AI-сгенерированного контента. Меры вступят в силу в 2026 году и включают ответственность платформ, штрафы за нарушения и ускоренное удаление вредоносного контента. Регулирование направлено на защиту потребителей и контроль за распространением поддельной информации.
Рост угрозы из-за дипфейков
Дипфейковые видео используются для создания поддельных рекламных роликов, в которых известные личности якобы рекомендуют товары или акции. Такие материалы размещаются на фишинговых сайтах, где пользователи могут раскрыть личные данные или заразить устройства вредоносным ПО. Технологии генеративного ИИ позволяют быстро и недорого создавать убедительные подделки, что усложняет их обнаружение. Мошеннические схемы, использующие дипфейки, уже стали частью масштабных атак, организованных преступными группами.
Доверие в цифровом пространстве через детектор дипфейков
Компания РВБ запустила бета-версию бесплатного сервиса для определения дипфейков — изображений, созданных искусственным интеллектом. Сервис позволяет в течение нескольких секунд оценить, сгенерировано ли изображение ИИ, с точностью до 95%. Он уже доступен всем пользователям, которые могут выполнить до 100 проверок в месяц. В будущем инструмент может быть расширен для анализа аудио, видео и текста. Сервис призван повысить прозрачность и снизить риски, связанные с поддельным визуальным контентом, в том числе в медиа и коммерческой сфере.
Дипфейк имеет 7 записей событий в нашей базе.