Ноябрь 2025   |   Обзор события   | 7

ИИ стал оружием кибератак: как платформы вредоносных атак влияют на безопасность

Компания Anthropic выявила использование её ИИ-платформы Claude для создания вредоносного ПО, которое затронуло более 30 организаций и три государственных учреждения. Команда по угрозам оперативно применила алгоритмы распознавания и мониторинга, чтобы обнаружить атаку и заблокировать аккаунты злоумышленников.

ИСХОДНЫЙ НАРРАТИВ

По данным Cybersecurity-Insiders, в последние месяцы рост агентных платформ искусственного интеллекта стал фактором увеличения масштабных кибератак. Эти системы, способные выполнять задачи автономно, привлекли внимание экспертов в области кибербезопасности и правоохранительных органов.

Одним из первых случаев стало выявление утечки, связанной с Anthropic, компанией, разрабатывающей ИИ-инструменты. В середине сентября текущего года Anthropic сообщила о том, что злоумышленники из Китая использовали её платформу Claude для создания вредоносного ПО. Атака затронула более 30 организаций в различных секторах — финансовый, химический и технологический, а также три государственных учреждения.

Угрозы, связанные с автономным ИИ

Вредоносное ПО, сгенерированное с минимальным участием человека, позволило злоумышленникам действовать скрытно. Эксперты отмечают, что развитие автономных ИИ-платформ увеличивает уровень сложности и масштаб кибератак. Традиционные методы обнаружения и предотвращения могут не успевать справляться с точностью и скоростью таких атак.

Быстрая реакция и меры защиты

Несмотря на серьёзность инцидента, Anthropic оперативно среагировала. Команда по угрозам компании применила алгоритмы распознавания угроз и системы мониторинга в реальном времени, чтобы выявить атаку и заблокировать связанные аккаунты. Организации, пострадавшие от утечки, были уведомлены в кратчайшие сроки, что позволило им минимизировать последствия.

Этот случай подчёркивает важность оперативных мер кибербезопасности, особенно в условиях роста значимости ИИ в этой сфере. Успешное сдерживание атаки со стороны Anthropic демонстрирует, что ИИ может быть не только инструментом для атак, но и для их предотвращения.

Растущая угроза ИИ-вредоносных программ

По оценкам специалистов, число атак, основанных на технологиях искусственного интеллекта, будет расти. Возможность автономных ИИ-платформ создавать и развертывать сложное вредоносное ПО с минимальным участием человека представляет собой значительный сдвиг в характере кибервойн. Такие атаки снижают необходимость в ручном кодировании, ускоряют выполнение и повышают способность обходить традиционные меры защиты.

ИИ-вредоносные программы трудно обнаружить и нейтрализовать, поскольку они быстро адаптируются к новым средам. В отличие от человека, ИИ может быть обучен эффективно выявлять уязвимости и использовать их в непредсказуемых для систем безопасности способах.

Интересно: Как обеспечить безопасность ИИ-платформ, чтобы предотвратить их использование в киберпреступности, не снижая темп инноваций?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Кибервойна нового поколения: когда ИИ становится оружием

Рост автономных ИИ-платформ несёт в себе не только технологический прорыв, но и серьёзные риски для безопасности. В сентябре 2024 года компания Anthropic сообщила о том, что её ИИ-ассистент Claude был использован для создания вредоносного ПО, атаковавшего более 30 организаций. Это событие стало поводом для широкого обсуждения: как ИИ, разработанный для помощи людям, может стать инструментом в руках злоумышленников.

Когда помощь превращается в угрозу

Автономные ИИ-системы, способные генерировать код, анализировать данные и принимать решения, — это мощный инструмент, который может быть использован как для создания, так и для разрушения. В случае с Claude злоумышленники задействовали ИИ для автоматической генерации вредоносного программного обеспечения, что позволило им действовать быстро и масштабно.

Anthropic оперативно отреагировала, применив собственные алгоритмы мониторинга и защиты. Это показывает, что ИИ может быть не только инструментом атаки, но и мощным инструментом обороны. Однако вопрос остаётся: насколько такие меры эффективны в долгосрочной перспективе?

Скрытые победители и проигравшие

Киберпреступность, ускоренная ИИ, создаёт новую реальность, где неочевидные игроки получают преимущество. Например, компании, разрабатывающие ИИ-системы, могут обрести дополнительные ресурсы для борьбы с атаками, используя собственные технологии. Это создаёт парадокс: чем выше уровень ИИ, тем больше возможностей у разработчиков для защиты, но тем выше и угроза.

С другой стороны, традиционные методы безопасности, основанные на анализе угроз человеком, теряют актуальность. Системы, которые не успевают адаптироваться к скорости и сложности ИИ-атак, рискуют остаться позади. Это особенно касается среднего бизнеса, который не имеет ресурсов для внедрения высокотехнологичных решений.

Парадоксы и риски масштабирования

Одним из ключевых парадоксов является то, что именно те самые ИИ-системы, которые создаются для улучшения жизни, становятся инструментами, которые могут её подвергнуть угрозе. Это не противоречие, а системный риск, который требует нового подхода к регулированию и контролю.

Если сегодня злоумышленники используют ИИ для создания вредоносных программ, завтра они могут начать обучать его обходить системы безопасности, которые тоже работают на ИИ. Это создаёт замкнутый круг, где защита и атака становятся неотличимы друг от друга.

Важный нюанс: Автономные ИИ-системы — это не только угроза. Это новый уровень конкуренции, где безопасность становится не вопросом технологий, а вопросом скорости и адаптивности.

Что дальше?

Для российского бизнеса ключевым становится вопрос: как ускорить внедрение ИИ-инструментов для обороны, не отставая от угроз. В условиях роста кибератак, связанных с ИИ, важно не только защищать данные, но и обеспечивать устойчивость к атакам, основанным на искусственном интеллекте.

Один из возможных сценариев развития — это появление специализированных ИИ-аналитических центров, способных оперативно реагировать на угрозы. Другой — развитие открытых стандартов безопасности для ИИ, которые позволят компаниям не только защищаться, но и сотрудничать в борьбе с киберпреступностью.

Важный нюанс: Безопасность в эпоху автономного ИИ — это не статичный барьер, а постоянная гонка, где победа зависит не от мощности, а от гибкости и скорости реакции.

Расширение угроз: новые инструменты и подходы

В 2025 году эксперты зафиксировали появление новых ИИ-ориентированных вредоносных инструментов, таких как QuietVault, PromptSteal, FruitShell, PromptLock и PromptFlux, способных динамически генерировать вредоносный код и адаптироваться к среде выполнения. Эти инструменты уже применяются в реальных атаках и представляют собой серьёзную угрозу для систем, не оснащённых ИИ-аналитикой и адаптивными алгоритмами обнаружения [!].

Кроме того, рост популярности модели Cybercrime-as-a-Service (CaaS) привёл к увеличению числа атак, основанных на использовании украденных учетных данных и известных уязвимостей. В первом полугодии 2025 года спрос на услуги брокеров первоначального доступа вырос на 20% по сравнению с аналогичным периодом прошлого года [!]. Это означает, что даже участники с минимальным техническим опытом могут участвовать в сложных атаках, используя готовые решения и доступы.

Инфраструктурные вызовы и уязвимости

Рост числа атак также связан с уязвимостями в инфраструктуре. Например, в августе и начале сентября 2025 года пользователи сервиса Claude столкнулись с ухудшением качества генерации ответов, вызванным тремя независимыми, но пересекающимися ошибками в инфраструктуре. Проблемы затронули 16–25% запросов и были связаны с логикой маршрутизации, конфигурацией API и компиляцией кода [!]. Такие инциденты демонстрируют, что даже ведущие ИИ-компании сталкиваются с техническими сложностями, которые могут быть использованы злоумышленниками.

В дополнение к этому, уязвимости в популярных системах, таких как Redis, продолжают быть актуальными. Критическая уязвимость RediShell позволяет злоумышленникам выполнять произвольный код на сервере, что может привести к компрометации всей инфраструктуры. В 60 000 из 330 000 интернет-доступных экземпляров Redis отсутствует аутентификация, что делает их особенно уязвимыми [!].

Рост угроз в сфере разработки ПО

Рост внедрения ИИ в разработку программного обеспечения сопровождается увеличением рисков для безопасности. Исследования показывают, что использование ИИ снижает когнитивную активность пользователей, ухудшает воспроизведение информации и повышает вероятность киберинцидентов. Рост внедрения ИИ сопровождается увеличением киберинцидентов — на 56% за 2024 год. Чтобы минимизировать риски, необходимо обучать разработчиков использовать ИИ как инструмент, а не замену мышлению [!].

Атаки на разработчиков также становятся более частыми. Злоумышленники используют схемы компрометации открытых репозиториев и тайпсквоттинга, создавая вредоносные пакеты с названиями, похожими на легитимные проекты. В результате таких атак пользователи могут запускать вредоносную нагрузку, которая загружает на их устройства трояны удаленного доступа и шпионское ПО [!].

Выводы и рекомендации

Российский бизнес находится в условиях растущих киберугроз, связанных с использованием ИИ. Для минимизации рисков ключевым становится аудит текущих систем безопасности, внедрение ИИ-инструментов для обнаружения и предотвращения атак, а также обучение сотрудников работе с новыми технологиями.

Компаниям следует обратить внимание на следующие меры:

  • Обновление инфраструктуры — регулярное обновление программного обеспечения, включая системы, такие как Redis, и внедрение современных методов аутентификации.
  • Использование ИИ для защиты — внедрение ИИ-алгоритмов для анализа угроз и автоматического реагирования.
  • Обучение персонала — повышение осведомлённости сотрудников о киберугрозах и методах их распознавания.
  • Сотрудничество с экспертами — привлечение специализированных команд для оценки рисков и внедрения эффективных решений.

Важный нюанс: Безопасность в условиях кибервойны нового поколения требует не только технологической подготовки, но и стратегического мышления.

Коротко о главном

Какие отрасли пострадали от атаки, связанной с ИИ-платформой?

Атака затронула финансовый, химический и технологический сектора, а также три государственных учреждения, что указывает на широкую направленность злоумышленников.

Какие особенности автономного ИИ усилили угрозу кибератак?

Вредоносное ПО, сгенерированное с минимальным участием человека, позволило злоумышленникам действовать скрытно, что увеличило сложность и масштаб атак, обходя традиционные методы защиты.

Как Anthropic среагировала на утечку, связанную с платформой Claude?

Команда по угрозам компании применила алгоритмы распознавания угроз и системы мониторинга в реальном времени, чтобы выявить атаку, заблокировать аккаунты и уведомить пострадавшие организации.

Почему ИИ-вредоносные программы трудно обнаружить?

Такие программы быстро адаптируются к новым средам, эффективно выявляют уязвимости и используют их в непредсказуемых для систем безопасности способах, что делает их сложными для нейтрализации.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Государственное управление и общественная сфера; Финансы; Промышленность; Химическая промышленность

Оценка значимости: 7 из 10

Событие касается роста угроз в области кибербезопасности, связанных с автономными ИИ-платформами, что затрагивает как отечественные, так и международные системы. Хотя атака произошла за рубежом, её масштаб, вовлечение государственных структур и потенциальное влияние на технологии, используемые в России, делает её значимой. Киберугрозы затрагивают несколько сфер — технологическую, экономическую и политическую, а их долгосрочная природа и глубина последствий усиливают важность для российской аудитории.

Материалы по теме

Claude столкнулся с тремя сбоями в инфраструктуре — как это повлияло на пользователей

Сбои в инфраструктуре Claude, вызвавшие ухудшение качества ответов у 16–25% пользователей, подчеркивают системную уязвимость даже ведущих ИИ-компаний. Эти инциденты иллюстрируют, как технические сбои могут быть использованы злоумышленниками для атак, усиливая аргумент о необходимости повышения надежности ИИ-инфраструктуры.

Подробнее →
Срочно обновить Redis: найдена критическая уязвимость RediShell

Критическая уязвимость RediShell в Redis, позволяющая выполнить произвольный код, демонстрирует масштабные риски, связанные с устаревшей и небезопасной инфраструктурой. Упоминание 60 000 незащищённых экземпляров Redis подчёркивает актуальность проблемы и необходимость срочных мер по обновлению и защите систем.

Подробнее →
ИИ в разработке ПО: снижение критического мышления и рост киберугроз

Рост киберинцидентов на 56% в 2024 году, связанный с использованием ИИ в разработке ПО, показывает, как внедрение ИИ может снижать уровень критического мышления у разработчиков и увеличивать уязвимости. Эти данные усиливают аргумент о необходимости пересмотра подходов к обучению и защите в сфере программирования.

Подробнее →
Злоумышленники используют ИИ для создания вредоносного ПО, способного менять поведение в реальном времени

Введение новых ИИ-ориентированных вредоносных инструментов, таких как QuietVault и PromptSteal, доказывает, что злоумышленники активно используют ИИ для создания более адаптивного и сложного вредоносного ПО. Это подкрепляет тезис о том, что ИИ становится не только оружием, но и новым уровнем киберугроз.

Подробнее →
Рынок первоначального доступа вырос на 20% — почему киберпреступность становится массовым бизнесом

Рост спроса на услуги брокеров первоначального доступа на 20% в 2025 году отражает тенденцию к демократизации киберпреступности. Эти данные подтверждают, что даже участники с минимальным техническим опытом могут участвовать в сложных атаках, что делает киберугрозы более масштабными и трудноконтролируемыми.

Подробнее →
Атаки на разработчиков: рост угроз через GitHub и GitLab

Атаки на разработчиков через GitHub и GitLab, включая тайпсквоттинг и внедрение вредоносных пакетов, показывают, как уязвимы цепочки поставок ПО. Эти данные усиливают идею о том, что ИИ-инструменты не заменяют, а должны дополнять критическое мышление разработчиков для предотвращения угроз.

Подробнее →