ИИ стал оружием кибератак: как платформы вредоносных атак влияют на безопасность
Компания Anthropic выявила использование её ИИ-платформы Claude для создания вредоносного ПО, которое затронуло более 30 организаций и три государственных учреждения. Команда по угрозам оперативно применила алгоритмы распознавания и мониторинга, чтобы обнаружить атаку и заблокировать аккаунты злоумышленников.
По данным Cybersecurity-Insiders, в последние месяцы рост агентных платформ искусственного интеллекта стал фактором увеличения масштабных кибератак. Эти системы, способные выполнять задачи автономно, привлекли внимание экспертов в области кибербезопасности и правоохранительных органов.
Одним из первых случаев стало выявление утечки, связанной с Anthropic, компанией, разрабатывающей ИИ-инструменты. В середине сентября текущего года Anthropic сообщила о том, что злоумышленники из Китая использовали её платформу Claude для создания вредоносного ПО. Атака затронула более 30 организаций в различных секторах — финансовый, химический и технологический, а также три государственных учреждения.
Угрозы, связанные с автономным ИИ
Вредоносное ПО, сгенерированное с минимальным участием человека, позволило злоумышленникам действовать скрытно. Эксперты отмечают, что развитие автономных ИИ-платформ увеличивает уровень сложности и масштаб кибератак. Традиционные методы обнаружения и предотвращения могут не успевать справляться с точностью и скоростью таких атак.
Быстрая реакция и меры защиты
Несмотря на серьёзность инцидента, Anthropic оперативно среагировала. Команда по угрозам компании применила алгоритмы распознавания угроз и системы мониторинга в реальном времени, чтобы выявить атаку и заблокировать связанные аккаунты. Организации, пострадавшие от утечки, были уведомлены в кратчайшие сроки, что позволило им минимизировать последствия.
Этот случай подчёркивает важность оперативных мер кибербезопасности, особенно в условиях роста значимости ИИ в этой сфере. Успешное сдерживание атаки со стороны Anthropic демонстрирует, что ИИ может быть не только инструментом для атак, но и для их предотвращения.
Растущая угроза ИИ-вредоносных программ
По оценкам специалистов, число атак, основанных на технологиях искусственного интеллекта, будет расти. Возможность автономных ИИ-платформ создавать и развертывать сложное вредоносное ПО с минимальным участием человека представляет собой значительный сдвиг в характере кибервойн. Такие атаки снижают необходимость в ручном кодировании, ускоряют выполнение и повышают способность обходить традиционные меры защиты.
ИИ-вредоносные программы трудно обнаружить и нейтрализовать, поскольку они быстро адаптируются к новым средам. В отличие от человека, ИИ может быть обучен эффективно выявлять уязвимости и использовать их в непредсказуемых для систем безопасности способах.
Интересно: Как обеспечить безопасность ИИ-платформ, чтобы предотвратить их использование в киберпреступности, не снижая темп инноваций?

Кибервойна нового поколения: когда ИИ становится оружием
Рост автономных ИИ-платформ несёт в себе не только технологический прорыв, но и серьёзные риски для безопасности. В сентябре 2024 года компания Anthropic сообщила о том, что её ИИ-ассистент Claude был использован для создания вредоносного ПО, атаковавшего более 30 организаций. Это событие стало поводом для широкого обсуждения: как ИИ, разработанный для помощи людям, может стать инструментом в руках злоумышленников.
Когда помощь превращается в угрозу
Автономные ИИ-системы, способные генерировать код, анализировать данные и принимать решения, — это мощный инструмент, который может быть использован как для создания, так и для разрушения. В случае с Claude злоумышленники задействовали ИИ для автоматической генерации вредоносного программного обеспечения, что позволило им действовать быстро и масштабно.
Anthropic оперативно отреагировала, применив собственные алгоритмы мониторинга и защиты. Это показывает, что ИИ может быть не только инструментом атаки, но и мощным инструментом обороны. Однако вопрос остаётся: насколько такие меры эффективны в долгосрочной перспективе?
Скрытые победители и проигравшие
Киберпреступность, ускоренная ИИ, создаёт новую реальность, где неочевидные игроки получают преимущество. Например, компании, разрабатывающие ИИ-системы, могут обрести дополнительные ресурсы для борьбы с атаками, используя собственные технологии. Это создаёт парадокс: чем выше уровень ИИ, тем больше возможностей у разработчиков для защиты, но тем выше и угроза.
С другой стороны, традиционные методы безопасности, основанные на анализе угроз человеком, теряют актуальность. Системы, которые не успевают адаптироваться к скорости и сложности ИИ-атак, рискуют остаться позади. Это особенно касается среднего бизнеса, который не имеет ресурсов для внедрения высокотехнологичных решений.
Парадоксы и риски масштабирования
Одним из ключевых парадоксов является то, что именно те самые ИИ-системы, которые создаются для улучшения жизни, становятся инструментами, которые могут её подвергнуть угрозе. Это не противоречие, а системный риск, который требует нового подхода к регулированию и контролю.
Если сегодня злоумышленники используют ИИ для создания вредоносных программ, завтра они могут начать обучать его обходить системы безопасности, которые тоже работают на ИИ. Это создаёт замкнутый круг, где защита и атака становятся неотличимы друг от друга.
Важный нюанс: Автономные ИИ-системы — это не только угроза. Это новый уровень конкуренции, где безопасность становится не вопросом технологий, а вопросом скорости и адаптивности.
Что дальше?
Для российского бизнеса ключевым становится вопрос: как ускорить внедрение ИИ-инструментов для обороны, не отставая от угроз. В условиях роста кибератак, связанных с ИИ, важно не только защищать данные, но и обеспечивать устойчивость к атакам, основанным на искусственном интеллекте.
Один из возможных сценариев развития — это появление специализированных ИИ-аналитических центров, способных оперативно реагировать на угрозы. Другой — развитие открытых стандартов безопасности для ИИ, которые позволят компаниям не только защищаться, но и сотрудничать в борьбе с киберпреступностью.
Важный нюанс: Безопасность в эпоху автономного ИИ — это не статичный барьер, а постоянная гонка, где победа зависит не от мощности, а от гибкости и скорости реакции.
Расширение угроз: новые инструменты и подходы
В 2025 году эксперты зафиксировали появление новых ИИ-ориентированных вредоносных инструментов, таких как QuietVault, PromptSteal, FruitShell, PromptLock и PromptFlux, способных динамически генерировать вредоносный код и адаптироваться к среде выполнения. Эти инструменты уже применяются в реальных атаках и представляют собой серьёзную угрозу для систем, не оснащённых ИИ-аналитикой и адаптивными алгоритмами обнаружения [!].
Кроме того, рост популярности модели Cybercrime-as-a-Service (CaaS) привёл к увеличению числа атак, основанных на использовании украденных учетных данных и известных уязвимостей. В первом полугодии 2025 года спрос на услуги брокеров первоначального доступа вырос на 20% по сравнению с аналогичным периодом прошлого года [!]. Это означает, что даже участники с минимальным техническим опытом могут участвовать в сложных атаках, используя готовые решения и доступы.
Инфраструктурные вызовы и уязвимости
Рост числа атак также связан с уязвимостями в инфраструктуре. Например, в августе и начале сентября 2025 года пользователи сервиса Claude столкнулись с ухудшением качества генерации ответов, вызванным тремя независимыми, но пересекающимися ошибками в инфраструктуре. Проблемы затронули 16–25% запросов и были связаны с логикой маршрутизации, конфигурацией API и компиляцией кода [!]. Такие инциденты демонстрируют, что даже ведущие ИИ-компании сталкиваются с техническими сложностями, которые могут быть использованы злоумышленниками.
В дополнение к этому, уязвимости в популярных системах, таких как Redis, продолжают быть актуальными. Критическая уязвимость RediShell позволяет злоумышленникам выполнять произвольный код на сервере, что может привести к компрометации всей инфраструктуры. В 60 000 из 330 000 интернет-доступных экземпляров Redis отсутствует аутентификация, что делает их особенно уязвимыми [!].
Рост угроз в сфере разработки ПО
Рост внедрения ИИ в разработку программного обеспечения сопровождается увеличением рисков для безопасности. Исследования показывают, что использование ИИ снижает когнитивную активность пользователей, ухудшает воспроизведение информации и повышает вероятность киберинцидентов. Рост внедрения ИИ сопровождается увеличением киберинцидентов — на 56% за 2024 год. Чтобы минимизировать риски, необходимо обучать разработчиков использовать ИИ как инструмент, а не замену мышлению [!].
Атаки на разработчиков также становятся более частыми. Злоумышленники используют схемы компрометации открытых репозиториев и тайпсквоттинга, создавая вредоносные пакеты с названиями, похожими на легитимные проекты. В результате таких атак пользователи могут запускать вредоносную нагрузку, которая загружает на их устройства трояны удаленного доступа и шпионское ПО [!].
Выводы и рекомендации
Российский бизнес находится в условиях растущих киберугроз, связанных с использованием ИИ. Для минимизации рисков ключевым становится аудит текущих систем безопасности, внедрение ИИ-инструментов для обнаружения и предотвращения атак, а также обучение сотрудников работе с новыми технологиями.
Компаниям следует обратить внимание на следующие меры:
- Обновление инфраструктуры — регулярное обновление программного обеспечения, включая системы, такие как Redis, и внедрение современных методов аутентификации.
- Использование ИИ для защиты — внедрение ИИ-алгоритмов для анализа угроз и автоматического реагирования.
- Обучение персонала — повышение осведомлённости сотрудников о киберугрозах и методах их распознавания.
- Сотрудничество с экспертами — привлечение специализированных команд для оценки рисков и внедрения эффективных решений.
Важный нюанс: Безопасность в условиях кибервойны нового поколения требует не только технологической подготовки, но и стратегического мышления.
Источник: cybersecurity-insiders.com