Декабрь 2025   |   Обзор события   | 7

AI-агент нашел больше уязвимостей, чем хакеры — и обошелся дешевле

Искусственный интеллект ARTEMIS продемонстрировал высокую эффективность в поиске уязвимостей в корпоративной сети, обнаружив за 10 часов девять действительных уязвимостей с 82% точностью. При этом стоимость его работы оказалась существенно ниже, чем найм профессионального специалиста.

ИСХОДНЫЙ НАРРАТИВ

По данным Business Insider, исследователи из Стэнфордского университета провели эксперимент, в ходе которого AI-агент ARTEMIS продемонстрировал высокую эффективность в поиске уязвимостей в корпоративной сети. За 16 часов работы система обнаружила больше уязвимостей, чем большинство профессиональных хакеров, и при этом оказалась существенно дешевле.

Эффективность и стоимость

В ходе тестирования ARTEMIS сравнивали с 10 профессионалами в области проникновения в системы. В течение 10 часов агент обнаружил девять действительных уязвимостей с 82% точностью, превзойдя девять из десяти участников. Стоимость запуска базовой версии ARTEMIS составила около $18 в час, тогда как средняя зарплата специалиста по проникновению — порядка $125 000 в год. Более продвинутая версия агента обошлась в $59 в час, что всё равно дешевле найма высококвалифицированного специалиста.

Особенности работы AI-агента

ARTEMIS обладает способностью одновременно анализировать несколько уязвимостей, создавая подагентов для параллельного исследования. Это позволяет системе сократить время на поиск и оценку рисков. Например, агент обнаружил уязвимость в старом сервере, которую люди не смогли найти из-за ограничений браузера. ARTEMIS использовал командную строку для проникновения.

Однако у AI-агента есть ограничения. Он испытывает трудности с графическими интерфейсами, что привело к пропуску одной критической уязвимости. Кроме того, ARTEMIS склонен к ложным срабатываниям, неправильно интерпретируя некоторые сетевые сообщения как успешные атаки.

Риски и угрозы

Улучшение алгоритмов искусственного интеллекта снижает порог вхождения в киберпреступность. В сентябре хакерская группа из Северной Кореи использовала ChatGPT для генерации поддельных военных удостоверений в рамках фишинговых атак. В августе компания Anthropic сообщила, что операторы из Северной Кореи применяли модель Claude для получения поддельных удалённых рабочих мест в крупных технологических компаниях США. Такие действия позволили злоумышленникам получить доступ к внутренним системам.

В том же отчёте упоминается, что киберпреступник из Китая использовал модель Claude для атак на телекоммуникационные, сельскохозяйственные и государственные системы Вьетнама. Эти примеры подтверждают, что искусственный интеллект становится инструментом не только для защиты, но и для атак.

Интересно: Каким образом можно сбалансировать преимущества AI в кибербезопасности и риски его использования злоумышленниками?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда ИИ становится и оружием, и щитом

Как меняется баланс сил в киберпространстве

Искусственный интеллект всё чаще становится не только инструментом, а полноценным участником кибервойн. В одном случае он помогает защищать корпоративные сети, находя уязвимости быстрее и дешевле, чем люди. В другом — становится оружием в руках злоумышленников, которые используют его для создания более сложных и масштабных атак. Это уже не абстрактная перспектива — в реальности ИИ используется в фишинговых кампаниях, генерации поддельных документов и даже для получения легитимных удалённых рабочих мест.

AI-агент ARTEMIS, созданный исследователями из Стэнфорда, демонстрирует, что ИИ может справляться с задачами, которые раньше были в зоне ответственности опытных специалистов по кибербезопасности. При этом он работает дешевле, быстрее и параллельно обрабатывает несколько потоков информации. Но это же означает, что и злоумышленники могут получить доступ к таким же инструментам, что существенно меняет правила игры.

Важный нюанс: Технологии, которые сегодня защищают корпоративные сети, завтра могут стать частью атакующего арсенала. Это не гипотеза, а уже реальность.

Кто выигрывает, а кто теряет

На первый взгляд, внедрение ИИ в кибербезопасность выгодно всем: компании экономят на аудитах, повышают уровень защиты, а специалисты получают более мощные инструменты для анализа угроз. Но за этим стоит более сложная картина.

Победители:

  • Компании, которым не хватает квалифицированных специалистов по кибербезопасности. AI-агенты становятся альтернативой или вспомогательным инструментом.
  • Инновационные ИТ-стартапы, которые могут предложить решения на основе ИИ, не требующие глубокого технического опыта.
  • Государства и корпорации, которые используют ИИ для автоматизации обнаружения угроз и предотвращения атак.

Проигравшие:

  • Специалисты по проникновению в системы, чьи навыки становятся менее востребованными в условиях автоматизации.
  • Компании, не готовые к новым угрозам, связанным с использованием ИИ злоумышленниками. Старые методы защиты могут оказаться недостаточными.
  • Рынок традиционных аудитов, который может столкнуться с резким сокращением спроса.

Важный нюанс: Системы, такие как ARTEMIS, могут снизить порог вхождения в киберпреступность. Злоумышленники, не имея технической подготовки, могут использовать ИИ для автоматического поиска и эксплуатации уязвимостей.

Как ИИ меняет правила кибервойн

ИИ не только добавляет новые инструменты в арсенал специалистов по кибербезопасности — он меняет саму природу угроз. Ранее атаки требовали определённого уровня технической подготовки, времени и ресурсов. Теперь, с помощью ИИ, они становятся более масштабными, быстрыми и менее заметными.

Особенно тревожным становится тот факт, что ИИ может обнаруживать уязвимости, которые человек не способен найти. Например, ARTEMIS использовал командную строку, чтобы обнаружить уязвимость в старом сервере, которую профессионалы пропустили из-за ограничений браузера. Это значит, что и злоумышленники могут найти способы, о которых администраторы даже не догадываются.

Если ИИ может найти уязвимость, которую человек не способен найти, то и злоумышленники могут использовать ту же логику для атак. Это создаёт новую угрозу, которую сложно обнаружить стандартными средствами.

Важный нюанс: ИИ становится не только инструментом защиты, но и новым вектором атак. Это требует пересмотра подходов к кибербезопасности и внедрения новых методов контроля и аудита.

Новые угрозы и масштабы киберпреступности

С ростом доступности ИИ-инструментов растёт и количество атак, особенно среди малого и среднего бизнеса. По данным опроса, более трети малых и средних компаний в США повысили цены на товары и услуги после кибератак, чтобы компенсировать потери. 41% этих предприятий признали, что сталкивались с атаками, основанными на искусственном интеллекте [!]. Такие атаки включают фишинговые письма, дипфейковые видео и вредоносное ПО, которые трудно обнаружить стандартными системами безопасности.

Кроме того, злоумышленники используют ИИ для автоматизации фишинговых атак, создания приманок и генерации вредоносного кода. Например, компания Anthropic выявила использование её ИИ-платформы Claude для создания вредоносного ПО, которое затронуло более 30 организаций и три государственных учреждения [!]. Такие атаки демонстрируют, как автономные ИИ-системы могут применяться для масштабных кибератак с минимальным участием человека.

Утечки данных и внутренние угрозы

Рост популярности AI-чат-ботов в личной и профессиональной среде приводит к увеличению рисков утечки конфиденциальной информации. В 2024 году число утечек через генеративные модели достигло рекордного уровня, особенно в финансовой, медицинской и юридической сферах, где сотрудники передавали внутренние данные в публичные сервисы, обходя корпоративные системы безопасности [!].

Кроме того, исследования показали, что даже минимальные изменения в запросе могут обойти защитные механизмы моделей. Например, метод EchoGram позволяет злоумышленникам добавлять специальные последовательности символов, которые меняют оценку ввода с вредоносного на безопасный [!]. Это открывает возможность для prompt injection — атаки, при которой ввод пользователя изменяет логику работы модели.

Стратегические изменения и перспективы

С ростом угроз, связанных с ИИ, бизнесу необходимо пересмотреть подходы к кибербезопасности. В частности, компании должны внедрять системы анализа поведения и геолокации, чтобы выявлять аномалии и предотвращать мошенничество в реальном времени [!]. Кроме того, важно усилить защиту данных, особенно при использовании ИИ-моделей для обработки конфиденциальной информации.

Для минимизации рисков ключевым становится аудит внутренних процессов и обучение сотрудников. Исследования показывают, что 65% компаний считают сотрудников основным риском в кибербезопасности, особенно из-за использования открытых мессенджеров и ИИ-моделей для передачи конфиденциальной информации [!]. Несмотря на высокую осведомлённость, только 19% организаций применяют исключительно корпоративные решения для коммуникации.

Вывод: Кибербезопасность в эпоху искусственного интеллекта требует не только новых технологий, но и изменений в корпоративной культуре. Только комплексный подход, включающий автоматизацию, обучение и стратегическое планирование, позволит снизить риски и адаптироваться к новым угрозам.

Коротко о главном

Какова стоимость использования ARTEMIS по сравнению с людьми?

Базовая версия агента стоит $18 в час, а продвинутая — $59 в час, что значительно дешевле найма специалиста, чья годовая зарплата составляет около $125 000.

Какие особенности работы ARTEMIS позволили ему превзойти людей?

Агент может одновременно анализировать несколько уязвимостей, создавая подагентов для параллельного исследования, что сокращает время поиска и оценки рисков.

Какую уязвимость ARTEMIS нашёл, которую люди пропустили?

Агент обнаружил уязвимость в старом сервере, используя командную строку, в то время как люди не смогли найти её из-за ограничений браузера.

Какие ограничения у AI-агента ARTEMIS?

Он испытывает трудности с графическими интерфейсами, что привело к пропуску одной критической уязвимости, и склонен к ложным срабатываниям при интерпретации сетевых сообщений.

Как искусственный интеллект используется в киберпреступности?

В сентябре хакеры из Северной Кореи применили ChatGPT для генерации поддельных военных удостоверений, а в августе — модель Claude для получения удалённых рабочих мест в американских технологических компаниях.

Как AI используется в атаках на Вьетнам?

Киберпреступник из Китая использовал модель Claude для атак на телекоммуникационные, сельскохозяйственные и государственные системы Вьетнама, получив доступ к внутренним ресурсам.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность

Оценка значимости: 7 из 10

Событие связано с ростом роли искусственного интеллекта в кибербезопасности, что напрямую затрагивает Россию, где активно развиваются собственные ИИ-технологии и угрозы кибератак. Масштаб аудитории — национальный, поскольку затрагивает вопросы информационной безопасности, технологий и экономики. Воздействие среднесрочное, так как развитие ИИ-инструментов влияет на рынок услуг и защиту инфраструктуры. Сферы влияния включают технологии, безопасность и экономику. Глубина последствий высокая, поскольку речь идёт о фундаментальных изменениях в методах обеспечения кибербезопасности.

Материалы по теме

Малый бизнес США поднимает цены из-за кибератак и ИИ-угроз

Упоминание, что 41% малых и средних компаний США стали жертвами атак, основанных на искусственном интеллекте, служит доказательством роста масштабов ИИ-атак и их влияния на бизнес, подкрепляя аргумент о том, что ИИ становится не только инструментом защиты, но и новым вектором атак.

Подробнее →
ИИ стал оружием кибератак: как платформы вредоносных атак влияют на безопасность

Пример использования ИИ-платформы Claude злоумышленниками для создания вредоносного ПО, затронувшего более 30 организаций и три государственных учреждения, иллюстрирует, как автономные ИИ-системы могут применяться для масштабных кибератак с минимальным участием человека, поддерживая тезис о двойственности роли ИИ в киберпространстве.

Подробнее →
Как обманывают защиту ИИ: уязвимости в ограничителях больших языковых моделей

Описание метода EchoGram, позволяющего обходить защитные механизмы ИИ-моделей, включая GPT-4o, демонстрирует, как минимальные изменения в запросе могут обойти защиту, усиливая идею о том, что даже самые современные ИИ-системы уязвимы и могут быть использованы в атаках.

Подробнее →
Рост утечек данных через AI-чат-боты: как защитить конфиденциальность

Упоминание рекордного уровня утечек данных через AI-чат-боты, особенно в финансовой, медицинской и юридической сферах, подкрепляет утверждение о рисках, связанных с передачей конфиденциальной информации в публичные ИИ-сервисы, подчеркивая необходимость корпоративного контроля.

Подробнее →
Генеративный ИИ угрожает кибербезопасности: как защитить данные от дипфейков и атак

Внедрение систем анализа поведения и геолокации для предотвращения мошенничества в реальном времени, упомянутое в блоке, поддерживает вывод о том, что кибербезопасность в эпоху ИИ требует не только новых технологий, но и изменений в корпоративной культуре.

Подробнее →
Сотрудники — главная точка уязвимости в кибербезопасности бизнеса

Данные о том, что 65% компаний считают сотрудников основным риском в кибербезопасности, особенно из-за использования открытых мессенджеров и ИИ-моделей, усиливают аргумент о важности обучения персонала и корпоративных стандартов в борьбе с утечками данных.

Подробнее →