Ноябрь 2025   |   Обзор события   | 9

Злоумышленники используют ИИ для создания вредоносного ПО, способного менять поведение в реальном времени

Злоумышленники начали применять ИИ-модели в реальных кибератаках, создавая вредоносные инструменты, способные адаптироваться и менять поведение в процессе работы. Среди таких инструментов — QuietVault, PromptSteal, FruitShell, PromptLock и PromptFlux, которые используют ИИ для кражи данных, генерации вредоносных команд и обхода систем безопасности.

ИСХОДНЫЙ НАРРАТИВ

По данным Google Threat Intelligence Group, злоумышленники начали использовать ИИ-модели в операциях, связанных с распространением вредоносного ПО. Это открывает новую фазу злоупотребления технологиями, когда вредоносные инструменты способны адаптироваться и менять поведение в процессе работы.

Угрозы, связанные с ИИ, становятся реальностью

Среди примеров, зафиксированных аналитиками Google, выделяются несколько типов вредоносного ПО, которые уже применяются в реальных атаках:

  • QuietVault — похищает токены GitHub и NPM, а также использует ИИ-подсказки и локальные инструменты командной строки для поиска других секретов на заражённой системе.
  • PromptSteal, связанный с группировкой APT28 (Fancy Bear), применяет API Hugging Face для генерации команд Windows, которые собирают и передают данные.
  • FruitShell — содержит жёстко заданные запросы, направленные на обход систем безопасности, основанных на ИИ.

Кроме того, в экспериментальной фазе находятся PromptLock и PromptFlux. Первый использует ИИ для динамической генерации вредоносных скриптов, второй — переписывает свой исходный код каждые часы через API Google Gemini, чтобы избежать обнаружения.

Аналитики Google отметили, что злоумышленники перешли от использования ИИ для повышения продуктивности к применению его в реальных операциях. Это приводит к созданию вредоносных инструментов, которые способны менять своё поведение в процессе выполнения.

Теневые рынки: ИИ как инструмент для киберпреступности

Подпольные площадки, ориентированные на киберпреступников, предлагают широкий выбор нелегальных ИИ-сервисов. Среди обещаемых функций — автоматическая генерация вредоносного кода, создание обманных контентов и поддержка при разработке инфраструктуры для атак.

Примеры злоупотреблений: от китайских атак до иранских исследований

Google указывает, что злоумышленники, связанные с Китаем, использовали модель Gemini для создания приманок, построения технической инфраструктуры и разработки инструментов для утечки данных. Они обманули защитные механизмы, представившись участниками CTF-соревнований.

Иранские хакеры, в свою очередь, притворились студентами, чтобы получить доступ к информации о разработке кастомного вредоносного ПО. После выявления таких методов Google заявило о том, что усилила защиту от подобных подходов.

Аналитики подчеркивают, что злоумышленники всё чаще используют генеративные ИИ-инструменты, чтобы ускорить и масштабировать свои операции. Для профессионалов такие технологии становятся аналогом Metasploit или Cobalt Strike, а для менее опытных — способом создавать сложные инструменты, не обладая глубокими техническими знаниями.

Интересно: Каким образом бизнес может адаптировать существующие системы безопасности, чтобы противостоять вредоносным ИИ-инструментам, которые способны динамически изменять своё поведение?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда защита учится у хакеров

Использование искусственного интеллекта в киберпреступности перешло от экспериментов к промышленному применению. Это не только новый инструмент для злоумышленников — это сдвиг в самой природе угроз. Системы безопасности, построенные на статических сигнатурных методах и известных паттернах, теряют актуальность. Атакующие теперь могут генерировать уникальные вредоносные скрипты, обходить детекторы и маскироваться под легитимные процессы. Примеры, такие как PromptSteal или FruitShell, демонстрируют, что ИИ может стать не только помощником в написании кода, но и частью самого вредоносного ПО.

Скрытые победители и проигравшие

Теневые рынки и киберпреступные сообщества выигрывают от дешевизны и доступности ИИ. Раньше создание сложного вредоносного ПО требовало глубоких технических знаний. Теперь достаточно уметь задать правильный запрос. Это снижает порог входа в киберпреступность, делая её более распространённой. В блоке 26179 описан PromptLock — первый вирус-вымогатель, который использует ИИ для генерации вредоносного кода. Хотя он пока не применялся в реальных атаках, его появление подтверждает, что угрозы становятся более адаптивными и сложными.

С другой стороны, компании, которые не модернизируют свои системы обнаружения и реагирования, рискуют остаться беззащитными. Традиционные антивирусы и системы обнаружения вторжений (IDS/IPS) не справляются с динамически изменяющимися угрозами. Их замена или интеграция с ИИ-моделями становится не вопросом «если», а вопросом «когда».

Что происходит на самом деле

ИИ становится частью архитектуры угроз, а не только инструментом для их автоматизации. Модели вроде Gemini, Hugging Face и других, которые изначально предназначены для помощи разработчикам, становятся точками входа для злоумышленников. Например, группа APT28 использует Hugging Face API для генерации команд, которые затем выполняются на заражённых системах. Это не просто техническая хитрость — это стратегия, которая позволяет маскировать атаки под нормальные пользовательские действия.

Кроме того, ИИ помогает в создании более сложных социальных инженерных атак. Приманки, созданные с помощью генеративных моделей, становятся более убедительными, а методы фишинга — более целенаправленными. Это означает, что даже самые опытные пользователи могут подвергнуться атаке, если система безопасности не сработает.

Важный нюанс: Злоумышленники не только используют ИИ — они интегрируют его в цикл атаки, что делает угрозы адаптивными и менее предсказуемыми.

Российский контекст

Для российских компаний особенно важен вопрос адаптации систем безопасности. Многие из них до сих пор используют устаревшие решения, которые не учитывают динамическую природу современных угроз. Это создаёт уязвимости, которые могут быть использованы как внешними, так и внутренними атакующими.

Ключевым становится переход от сигнатурных методов к поведенческому анализу. Это требует не только инвестиций в ИИ-инструменты, но и пересмотра подходов к кибербезопасности. Важно также учитывать, что ИИ-модели, используемые в защитных целях, сами могут стать мишенью для атак. Например, инжектирование поддельных данных или манипуляции с обучением модели могут привести к ложным срабатываниям или, что хуже, к их игнорированию.

Что дальше

Скорее всего, в ближайшие годы мы увидим рост спроса на специализированные ИИ-модели для кибербезопасности. Это может привести к появлению новых игроков на рынке, а также к интеграции ИИ в существующие платформы. Однако важно помнить, что ИИ — не панацея. Он требует правильной настройки, обучения и постоянного мониторинга.

Для бизнеса ключевой задачей станет не только защита от ИИ-атак, но и использование ИИ для повышения уровня безопасности. Это сложный баланс, но он необходим. Особенно актуальным становится вопрос повышения осведомлённости сотрудников о новых видах атак. Например, по данным блока 39655, в третьем квартале 2025 года 61% российских пользователей столкнулись с подозрительными звонками. Это на 22% больше, чем в 2024 году. Мошенники используют фишинговые сообщения с поддельными уведомлениями о «подозрительном входе», чтобы выманить коды через звонки.

Важный нюанс: Успех в борьбе с новыми угрозами зависит не только от технологий, но и от поведения пользователей. Без должной культуры безопасности даже самые продвинутые системы могут оказаться бесполезными.

Новые вызовы и реалии

С ростом масштаба и сложности атак, как описано в блоке 38055, защита сетей становится более сложной задачей. Злоумышленники всё чаще сочетают массовые методы, такие как фишинг и сканирование, с высокотехнологичными подходами. Это создаёт постоянное давление на системы и позволяет злоумышленникам скрытно продвигаться внутрь. Специалистам по кибербезопасности приходится анализировать огромный поток событий, чтобы выделить реальные угрозы. Это повышает риски пропуска критических инцидентов и требует более эффективных инструментов и подходов к мониторингу.

В условиях таких вызовов, как указано в блоке 30579, возникает проблема распыления ответственности. Команды DevOps, перегруженные своими задачами, вынуждены проверять угрозы, не имея на это ресурсов. Это приводит к игнорированию реальных рисков. Без чёткого разделения обязанностей и автоматизации проверок, безопасность не может эффективно функционировать. Руководство по безопасности должно сосредоточиться на снижении «шума» и улучшении точности уведомлений, чтобы восстановить доверие и контроль.

Важный нюанс: В условиях роста ИИ-угроз защита перестаёт быть статичной. Её нужно постоянно обучать, обновлять и адаптировать — как и угрозы, которые она должна противостоять.

Итоги

Технологии искусственного интеллекта меняют не только способы атак, но и методы их обнаружения. Бизнесу важно не только защищаться от новых угроз, но и использовать ИИ для повышения эффективности кибербезопасности. Это требует инвестиций, обучения и постоянного мониторинга. Только комплексный подход позволит противостоять быстро развивающимся угрозам и сохранить стабильность в условиях цифровой трансформации.

Коротко о главном

Как PromptSteal связан с кибератаками?

PromptSteal, связанный с группировкой APT28, использует API Hugging Face для автоматической генерации команд, которые собирают и передают конфиденциальные данные.

Что делает модель PromptLock уникальной?

PromptLock динамически генерирует вредоносные скрипты через ИИ, что позволяет атакующим адаптировать свои действия в реальном времени и избегать обнаружения.

Как злоумышленники используют модель Gemini?

Китайские хакеры использовали модель Gemini для создания приманок, разработки инфраструктуры атак и утечки данных, маскируясь под участников CTF-соревнований.

Как ИИ помогает менее опытным хакерам?

Генеративные ИИ-инструменты позволяют неопытным злоумышленникам создавать сложное вредоносное ПО, обходя необходимость глубоких технических знаний.

Какие экспериментальные ИИ-атаки были зафиксированы?

PromptFlux переписывает свой исходный код каждые несколько часов через API Google Gemini, чтобы избежать обнаружения системами безопасности.

Какие функции предлагают теневые ИИ-рынки?

Подпольные площадки предлагают автоматическую генерацию вредоносного кода, создание обманных контентов и поддержку при разработке инфраструктуры для кибератак.

Как ИИ меняет тактику киберпреступников?

Злоумышленники перешли от использования ИИ для повышения продуктивности к применению его в реальных атаках, создавая инструменты, которые способны менять своё поведение в процессе выполнения.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность

Оценка значимости: 9 из 10

Использование ИИ в киберпреступности затрагивает масштабную аудиторию, так как угроза касается как частных лиц, так и организаций по всей России. Воздействие продолжительное и связано с эволюцией угроз, а сфера затрагивает безопасность, технологии, экономику и политику. Последствия глубокие — речь идёт о системных изменениях в подходах к кибербезопасности, что делает событие крайне значимым.

Материалы по теме

Первый в мире вирус-вымогатель на базе искусственного интеллекта

Описание вируса-вымогателя PromptLock, созданного на основе ИИ, служит ключевым примером, как ИИ может быть использован для генерации вредоносного кода. Этот факт подкрепляет тезис о том, что угрозы становятся более адаптивными, а порог входа в киберпреступность снижается.

Подробнее →
Телефонное мошенничество в РФ растет: 61% пользователей подверглись атакам

Данные о росте телефонного мошенничества в России — 61% пользователей столкнулись с подозрительными звонками в третьем квартале 2025 года, что на 22% больше, чем в 2024 — демонстрируют масштаб распространения социальной инженерии. Это усиливает аргумент о том, что даже опытные пользователи становятся уязвимыми без надёжной защиты.

Подробнее →
Кибератаки масштабируются: как защитить бизнес от ИИ и скрытых угроз

Упоминание о сочетании массовых и высокотехнологичных методов атак используется для иллюстрации роста сложности угроз. Это подчеркивает, что защита сетей становится более трудоёмкой, а риск пропуска критических инцидентов резко возрастает.

Подробнее →
Как ИИ меняет борьбу с киберугрозами: безопасность возвращается в свои руки

Описание проблемы перегрузки DevOps-команд и распыления ответственности по защите поддерживает ключевую мысль о том, что без чёткого разделения обязанностей и автоматизации безопасность теряет эффективность. Это усиливает аргумент о необходимых организационных изменениях в сфере кибербезопасности.

Подробнее →