Злоумышленники используют ИИ для создания вредоносного ПО, способного менять поведение в реальном времени
Злоумышленники начали применять ИИ-модели в реальных кибератаках, создавая вредоносные инструменты, способные адаптироваться и менять поведение в процессе работы. Среди таких инструментов — QuietVault, PromptSteal, FruitShell, PromptLock и PromptFlux, которые используют ИИ для кражи данных, генерации вредоносных команд и обхода систем безопасности.
По данным Google Threat Intelligence Group, злоумышленники начали использовать ИИ-модели в операциях, связанных с распространением вредоносного ПО. Это открывает новую фазу злоупотребления технологиями, когда вредоносные инструменты способны адаптироваться и менять поведение в процессе работы.
Угрозы, связанные с ИИ, становятся реальностью
Среди примеров, зафиксированных аналитиками Google, выделяются несколько типов вредоносного ПО, которые уже применяются в реальных атаках:
- QuietVault — похищает токены GitHub и NPM, а также использует ИИ-подсказки и локальные инструменты командной строки для поиска других секретов на заражённой системе.
- PromptSteal, связанный с группировкой APT28 (Fancy Bear), применяет API Hugging Face для генерации команд Windows, которые собирают и передают данные.
- FruitShell — содержит жёстко заданные запросы, направленные на обход систем безопасности, основанных на ИИ.
Кроме того, в экспериментальной фазе находятся PromptLock и PromptFlux. Первый использует ИИ для динамической генерации вредоносных скриптов, второй — переписывает свой исходный код каждые часы через API Google Gemini, чтобы избежать обнаружения.
Аналитики Google отметили, что злоумышленники перешли от использования ИИ для повышения продуктивности к применению его в реальных операциях. Это приводит к созданию вредоносных инструментов, которые способны менять своё поведение в процессе выполнения.
Теневые рынки: ИИ как инструмент для киберпреступности
Подпольные площадки, ориентированные на киберпреступников, предлагают широкий выбор нелегальных ИИ-сервисов. Среди обещаемых функций — автоматическая генерация вредоносного кода, создание обманных контентов и поддержка при разработке инфраструктуры для атак.
Примеры злоупотреблений: от китайских атак до иранских исследований
Google указывает, что злоумышленники, связанные с Китаем, использовали модель Gemini для создания приманок, построения технической инфраструктуры и разработки инструментов для утечки данных. Они обманули защитные механизмы, представившись участниками CTF-соревнований.
Иранские хакеры, в свою очередь, притворились студентами, чтобы получить доступ к информации о разработке кастомного вредоносного ПО. После выявления таких методов Google заявило о том, что усилила защиту от подобных подходов.
Аналитики подчеркивают, что злоумышленники всё чаще используют генеративные ИИ-инструменты, чтобы ускорить и масштабировать свои операции. Для профессионалов такие технологии становятся аналогом Metasploit или Cobalt Strike, а для менее опытных — способом создавать сложные инструменты, не обладая глубокими техническими знаниями.
Интересно: Каким образом бизнес может адаптировать существующие системы безопасности, чтобы противостоять вредоносным ИИ-инструментам, которые способны динамически изменять своё поведение?

Когда защита учится у хакеров
Использование искусственного интеллекта в киберпреступности перешло от экспериментов к промышленному применению. Это не только новый инструмент для злоумышленников — это сдвиг в самой природе угроз. Системы безопасности, построенные на статических сигнатурных методах и известных паттернах, теряют актуальность. Атакующие теперь могут генерировать уникальные вредоносные скрипты, обходить детекторы и маскироваться под легитимные процессы. Примеры, такие как PromptSteal или FruitShell, демонстрируют, что ИИ может стать не только помощником в написании кода, но и частью самого вредоносного ПО.
Скрытые победители и проигравшие
Теневые рынки и киберпреступные сообщества выигрывают от дешевизны и доступности ИИ. Раньше создание сложного вредоносного ПО требовало глубоких технических знаний. Теперь достаточно уметь задать правильный запрос. Это снижает порог входа в киберпреступность, делая её более распространённой. В блоке 26179 описан PromptLock — первый вирус-вымогатель, который использует ИИ для генерации вредоносного кода. Хотя он пока не применялся в реальных атаках, его появление подтверждает, что угрозы становятся более адаптивными и сложными.
С другой стороны, компании, которые не модернизируют свои системы обнаружения и реагирования, рискуют остаться беззащитными. Традиционные антивирусы и системы обнаружения вторжений (IDS/IPS) не справляются с динамически изменяющимися угрозами. Их замена или интеграция с ИИ-моделями становится не вопросом «если», а вопросом «когда».
Что происходит на самом деле
ИИ становится частью архитектуры угроз, а не только инструментом для их автоматизации. Модели вроде Gemini, Hugging Face и других, которые изначально предназначены для помощи разработчикам, становятся точками входа для злоумышленников. Например, группа APT28 использует Hugging Face API для генерации команд, которые затем выполняются на заражённых системах. Это не просто техническая хитрость — это стратегия, которая позволяет маскировать атаки под нормальные пользовательские действия.
Кроме того, ИИ помогает в создании более сложных социальных инженерных атак. Приманки, созданные с помощью генеративных моделей, становятся более убедительными, а методы фишинга — более целенаправленными. Это означает, что даже самые опытные пользователи могут подвергнуться атаке, если система безопасности не сработает.
Важный нюанс: Злоумышленники не только используют ИИ — они интегрируют его в цикл атаки, что делает угрозы адаптивными и менее предсказуемыми.
Российский контекст
Для российских компаний особенно важен вопрос адаптации систем безопасности. Многие из них до сих пор используют устаревшие решения, которые не учитывают динамическую природу современных угроз. Это создаёт уязвимости, которые могут быть использованы как внешними, так и внутренними атакующими.
Ключевым становится переход от сигнатурных методов к поведенческому анализу. Это требует не только инвестиций в ИИ-инструменты, но и пересмотра подходов к кибербезопасности. Важно также учитывать, что ИИ-модели, используемые в защитных целях, сами могут стать мишенью для атак. Например, инжектирование поддельных данных или манипуляции с обучением модели могут привести к ложным срабатываниям или, что хуже, к их игнорированию.
Что дальше
Скорее всего, в ближайшие годы мы увидим рост спроса на специализированные ИИ-модели для кибербезопасности. Это может привести к появлению новых игроков на рынке, а также к интеграции ИИ в существующие платформы. Однако важно помнить, что ИИ — не панацея. Он требует правильной настройки, обучения и постоянного мониторинга.
Для бизнеса ключевой задачей станет не только защита от ИИ-атак, но и использование ИИ для повышения уровня безопасности. Это сложный баланс, но он необходим. Особенно актуальным становится вопрос повышения осведомлённости сотрудников о новых видах атак. Например, по данным блока 39655, в третьем квартале 2025 года 61% российских пользователей столкнулись с подозрительными звонками. Это на 22% больше, чем в 2024 году. Мошенники используют фишинговые сообщения с поддельными уведомлениями о «подозрительном входе», чтобы выманить коды через звонки.
Важный нюанс: Успех в борьбе с новыми угрозами зависит не только от технологий, но и от поведения пользователей. Без должной культуры безопасности даже самые продвинутые системы могут оказаться бесполезными.
Новые вызовы и реалии
С ростом масштаба и сложности атак, как описано в блоке 38055, защита сетей становится более сложной задачей. Злоумышленники всё чаще сочетают массовые методы, такие как фишинг и сканирование, с высокотехнологичными подходами. Это создаёт постоянное давление на системы и позволяет злоумышленникам скрытно продвигаться внутрь. Специалистам по кибербезопасности приходится анализировать огромный поток событий, чтобы выделить реальные угрозы. Это повышает риски пропуска критических инцидентов и требует более эффективных инструментов и подходов к мониторингу.
В условиях таких вызовов, как указано в блоке 30579, возникает проблема распыления ответственности. Команды DevOps, перегруженные своими задачами, вынуждены проверять угрозы, не имея на это ресурсов. Это приводит к игнорированию реальных рисков. Без чёткого разделения обязанностей и автоматизации проверок, безопасность не может эффективно функционировать. Руководство по безопасности должно сосредоточиться на снижении «шума» и улучшении точности уведомлений, чтобы восстановить доверие и контроль.
Важный нюанс: В условиях роста ИИ-угроз защита перестаёт быть статичной. Её нужно постоянно обучать, обновлять и адаптировать — как и угрозы, которые она должна противостоять.
Итоги
Технологии искусственного интеллекта меняют не только способы атак, но и методы их обнаружения. Бизнесу важно не только защищаться от новых угроз, но и использовать ИИ для повышения эффективности кибербезопасности. Это требует инвестиций, обучения и постоянного мониторинга. Только комплексный подход позволит противостоять быстро развивающимся угрозам и сохранить стабильность в условиях цифровой трансформации.
Источник: helpnetsecurity.com