AI-агент нашел больше уязвимостей, чем хакеры — и обошелся дешевле
Искусственный интеллект ARTEMIS продемонстрировал высокую эффективность в поиске уязвимостей в корпоративной сети, обнаружив за 10 часов девять действительных уязвимостей с 82% точностью. При этом стоимость его работы оказалась существенно ниже, чем найм профессионального специалиста.
По данным Business Insider, исследователи из Стэнфордского университета провели эксперимент, в ходе которого AI-агент ARTEMIS продемонстрировал высокую эффективность в поиске уязвимостей в корпоративной сети. За 16 часов работы система обнаружила больше уязвимостей, чем большинство профессиональных хакеров, и при этом оказалась существенно дешевле.
Эффективность и стоимость
В ходе тестирования ARTEMIS сравнивали с 10 профессионалами в области проникновения в системы. В течение 10 часов агент обнаружил девять действительных уязвимостей с 82% точностью, превзойдя девять из десяти участников. Стоимость запуска базовой версии ARTEMIS составила около $18 в час, тогда как средняя зарплата специалиста по проникновению — порядка $125 000 в год. Более продвинутая версия агента обошлась в $59 в час, что всё равно дешевле найма высококвалифицированного специалиста.
Особенности работы AI-агента
ARTEMIS обладает способностью одновременно анализировать несколько уязвимостей, создавая подагентов для параллельного исследования. Это позволяет системе сократить время на поиск и оценку рисков. Например, агент обнаружил уязвимость в старом сервере, которую люди не смогли найти из-за ограничений браузера. ARTEMIS использовал командную строку для проникновения.
Однако у AI-агента есть ограничения. Он испытывает трудности с графическими интерфейсами, что привело к пропуску одной критической уязвимости. Кроме того, ARTEMIS склонен к ложным срабатываниям, неправильно интерпретируя некоторые сетевые сообщения как успешные атаки.
Риски и угрозы
Улучшение алгоритмов искусственного интеллекта снижает порог вхождения в киберпреступность. В сентябре хакерская группа из Северной Кореи использовала ChatGPT для генерации поддельных военных удостоверений в рамках фишинговых атак. В августе компания Anthropic сообщила, что операторы из Северной Кореи применяли модель Claude для получения поддельных удалённых рабочих мест в крупных технологических компаниях США. Такие действия позволили злоумышленникам получить доступ к внутренним системам.
В том же отчёте упоминается, что киберпреступник из Китая использовал модель Claude для атак на телекоммуникационные, сельскохозяйственные и государственные системы Вьетнама. Эти примеры подтверждают, что искусственный интеллект становится инструментом не только для защиты, но и для атак.
Интересно: Каким образом можно сбалансировать преимущества AI в кибербезопасности и риски его использования злоумышленниками?

Когда ИИ становится и оружием, и щитом
Как меняется баланс сил в киберпространстве
Искусственный интеллект всё чаще становится не только инструментом, а полноценным участником кибервойн. В одном случае он помогает защищать корпоративные сети, находя уязвимости быстрее и дешевле, чем люди. В другом — становится оружием в руках злоумышленников, которые используют его для создания более сложных и масштабных атак. Это уже не абстрактная перспектива — в реальности ИИ используется в фишинговых кампаниях, генерации поддельных документов и даже для получения легитимных удалённых рабочих мест.
AI-агент ARTEMIS, созданный исследователями из Стэнфорда, демонстрирует, что ИИ может справляться с задачами, которые раньше были в зоне ответственности опытных специалистов по кибербезопасности. При этом он работает дешевле, быстрее и параллельно обрабатывает несколько потоков информации. Но это же означает, что и злоумышленники могут получить доступ к таким же инструментам, что существенно меняет правила игры.
Важный нюанс: Технологии, которые сегодня защищают корпоративные сети, завтра могут стать частью атакующего арсенала. Это не гипотеза, а уже реальность.
Кто выигрывает, а кто теряет
На первый взгляд, внедрение ИИ в кибербезопасность выгодно всем: компании экономят на аудитах, повышают уровень защиты, а специалисты получают более мощные инструменты для анализа угроз. Но за этим стоит более сложная картина.
Победители:
- Компании, которым не хватает квалифицированных специалистов по кибербезопасности. AI-агенты становятся альтернативой или вспомогательным инструментом.
- Инновационные ИТ-стартапы, которые могут предложить решения на основе ИИ, не требующие глубокого технического опыта.
- Государства и корпорации, которые используют ИИ для автоматизации обнаружения угроз и предотвращения атак.
Проигравшие:
- Специалисты по проникновению в системы, чьи навыки становятся менее востребованными в условиях автоматизации.
- Компании, не готовые к новым угрозам, связанным с использованием ИИ злоумышленниками. Старые методы защиты могут оказаться недостаточными.
- Рынок традиционных аудитов, который может столкнуться с резким сокращением спроса.
Важный нюанс: Системы, такие как ARTEMIS, могут снизить порог вхождения в киберпреступность. Злоумышленники, не имея технической подготовки, могут использовать ИИ для автоматического поиска и эксплуатации уязвимостей.
Как ИИ меняет правила кибервойн
ИИ не только добавляет новые инструменты в арсенал специалистов по кибербезопасности — он меняет саму природу угроз. Ранее атаки требовали определённого уровня технической подготовки, времени и ресурсов. Теперь, с помощью ИИ, они становятся более масштабными, быстрыми и менее заметными.
Особенно тревожным становится тот факт, что ИИ может обнаруживать уязвимости, которые человек не способен найти. Например, ARTEMIS использовал командную строку, чтобы обнаружить уязвимость в старом сервере, которую профессионалы пропустили из-за ограничений браузера. Это значит, что и злоумышленники могут найти способы, о которых администраторы даже не догадываются.
Если ИИ может найти уязвимость, которую человек не способен найти, то и злоумышленники могут использовать ту же логику для атак. Это создаёт новую угрозу, которую сложно обнаружить стандартными средствами.
Важный нюанс: ИИ становится не только инструментом защиты, но и новым вектором атак. Это требует пересмотра подходов к кибербезопасности и внедрения новых методов контроля и аудита.
Новые угрозы и масштабы киберпреступности
С ростом доступности ИИ-инструментов растёт и количество атак, особенно среди малого и среднего бизнеса. По данным опроса, более трети малых и средних компаний в США повысили цены на товары и услуги после кибератак, чтобы компенсировать потери. 41% этих предприятий признали, что сталкивались с атаками, основанными на искусственном интеллекте [!]. Такие атаки включают фишинговые письма, дипфейковые видео и вредоносное ПО, которые трудно обнаружить стандартными системами безопасности.
Кроме того, злоумышленники используют ИИ для автоматизации фишинговых атак, создания приманок и генерации вредоносного кода. Например, компания Anthropic выявила использование её ИИ-платформы Claude для создания вредоносного ПО, которое затронуло более 30 организаций и три государственных учреждения [!]. Такие атаки демонстрируют, как автономные ИИ-системы могут применяться для масштабных кибератак с минимальным участием человека.
Утечки данных и внутренние угрозы
Рост популярности AI-чат-ботов в личной и профессиональной среде приводит к увеличению рисков утечки конфиденциальной информации. В 2024 году число утечек через генеративные модели достигло рекордного уровня, особенно в финансовой, медицинской и юридической сферах, где сотрудники передавали внутренние данные в публичные сервисы, обходя корпоративные системы безопасности [!].
Кроме того, исследования показали, что даже минимальные изменения в запросе могут обойти защитные механизмы моделей. Например, метод EchoGram позволяет злоумышленникам добавлять специальные последовательности символов, которые меняют оценку ввода с вредоносного на безопасный [!]. Это открывает возможность для prompt injection — атаки, при которой ввод пользователя изменяет логику работы модели.
Стратегические изменения и перспективы
С ростом угроз, связанных с ИИ, бизнесу необходимо пересмотреть подходы к кибербезопасности. В частности, компании должны внедрять системы анализа поведения и геолокации, чтобы выявлять аномалии и предотвращать мошенничество в реальном времени [!]. Кроме того, важно усилить защиту данных, особенно при использовании ИИ-моделей для обработки конфиденциальной информации.
Для минимизации рисков ключевым становится аудит внутренних процессов и обучение сотрудников. Исследования показывают, что 65% компаний считают сотрудников основным риском в кибербезопасности, особенно из-за использования открытых мессенджеров и ИИ-моделей для передачи конфиденциальной информации [!]. Несмотря на высокую осведомлённость, только 19% организаций применяют исключительно корпоративные решения для коммуникации.
Вывод: Кибербезопасность в эпоху искусственного интеллекта требует не только новых технологий, но и изменений в корпоративной культуре. Только комплексный подход, включающий автоматизацию, обучение и стратегическое планирование, позволит снизить риски и адаптироваться к новым угрозам.
Источник: Business Insider