Киберпреступники используют ИИ для атак в 40 раз быстрее
Рост угроз в сфере кибербезопасности связан с тем, что искусственный интеллект внедряется в бизнес-процессы быстрее, чем создаются меры его защиты, что создаёт возможности для злоумышленников, использующих ИИ для более быстрых и эффективных атак. Эксперты отмечают необходимость внедрения управляемых сред, ранних систем обнаружения и усиления защиты идентификации пользователей, чтобы снизить риски и повысить уровень безопасности.
Согласно данным Института SANS, искусственный интеллект внедряется в бизнес-процессы быстрее, чем обеспечиваются меры его защиты, что открывает широкую возможность для злоумышленников. В результате образуется зияющая технологическая брешь, которая уже используется для атак. Отмечается, что преступники используют ИИ, чтобы работать в десятки раз быстрее обычного, что позволяет им избегать обнаружения и вносить изменения в ходе атаки.
Как ИИ влияет на киберпреступность
Атаки, основанные на искусственном интеллекте, способны распространять более убедительные фишинговые сообщения, быстрее получать доступ к привилегированным данным и автоматически менять стратегию атаки. Исследование показало, что такие атаки могут происходить в 40 раз быстрее, чем традиционные. Это означает, что утечка информации может произойти до того, как защитники получат первые сигналы тревоги.
В центрах оперативной безопасности ИИ внедряется без чёткого плана. По данным опроса, 42% оперативных центров используют инструменты машинного обучения и искусственного интеллекта «как есть», без адаптации под конкретные задачи или интеграции с внутренними системами. Многие организации не имеют чётких сценариев действий при атаках, связанных с ИИ, таких как инъекции запросов или отравление моделей.
Рекомендации по защите от угроз ИИ
Роберт Ли, глава исследовательского отдела и руководитель направления ИИ в SANS Institute, заявил, что при ограниченных ресурсах руководители отделов информационной безопасности должны делать ставку на одну ключевую инвестицию, которая обеспечит и защиту, и эффективность. По его мнению, важнейшим шагом станет внедрение управляемой среды, где сотрудники смогут использовать утверждённые ИИ-инструменты с ограниченным доступом, шифрованием данных и мониторингом.
Оценка успешности таких систем, по мнению Ли, должна основываться на реальных результатах, а не на абстрактных метриках. Снижение числа случаев незаконного использования ИИ и увеличение объёмов задач, выполненных через официальные каналы, — это показатели того, что система работает эффективно.
Три основных направления защиты от ИИ-угроз
Для закрытия технологических пробелов в отчёте предложена трёхуровневая стратегия: Защита ИИ, Использование ИИ и Регулирование ИИ.
- Защита ИИ включает в себя меры по защите моделей, данных и инфраструктуры. Сюда относится контроль доступа, шифрование, тестирование и постоянное наблюдение. Особое внимание уделено новым типам угроз, таким как отравление моделей и инъекции запросов, которые позволяют злоумышленникам получать конфиденциальную информацию.
- Использование ИИ направлено на помощь сотрудникам в защите сети. Отчёт подчёркивает необходимость внедрения ИИ в процессы обнаружения и реагирования на атаки. Автоматизация может сократить нагрузку на аналитиков, но только при условии, что её внедрение будет тщательно спланировано.
- Регулирование ИИ связано с соблюдением нормативных требований. В Европе уже действует Акт об искусственном интеллекте, а в США — рамочная программа управления рисками ИИ от NIST. Нарушение этих требований может привести к крупным штрафам, как это произошло с одной европейской компанией, которой пришлось заплатить миллионы евро за отсутствие доказательств работы с ИИ.
Рекомендации по защите малых команд
Для небольших команд, работающих с ограниченными ресурсами, Ли рекомендует внедрение ранних систем обнаружения атак, основанных на ИИ. Это включает в себя фильтрацию электронной почты и звонков, а также автоматическое отсеивание низкочастотных угроз. Такой подход позволяет избежать информационного перегруза и повысить эффективность работы сотрудников.
Ещё одной важной мерой является защита идентификации пользователей. Ли предлагает внедрение ключей FIDO2/WebAuthn, которые заменят уязвимые пароли и устаревшие методы двухфакторной аутентификации. Также каждая операция с конфиденциальными данными должна подтверждаться по второму каналу связи.
Обучение сотрудников
В отчёте подчёркивается важность обучения персонала. Особенно это касается сотрудников отделов финансов, кадров и медицинского обслуживания, которые чаще сталкиваются с фишинговыми атаками. Обучение должно быть направлено на повышение осведомлённости о возможных угрозах, связанных с ИИ.
Регулирование и штрафы
Ужесточение требований к прозрачности и отчётности в сфере ИИ усиливает давление на компании. В Европе уже применяются меры, требующие доказательства использования ИИ в целях безопасности. Нарушение этих требований может привести к серьёзным финансовым последствиям.
Когда защита отстает от атаке: как ИИ меняет правила игры
Внедрение искусственного интеллекта в бизнес-процессы происходит стремительными темпами, но защитные меры остаются на заднем плане. По данным Института SANS, это создает технологическую брешь, которую активно используют злоумышленники. Угрозы уже не ограничиваются вручную составленными фишингами или случайными хакерскими атаками — они становятся более точными, быстрыми и адаптивными. Атаки, основанные на ИИ, могут развиваться в 40 раз быстрее традиционных, что делает их почти незаметными на начальных этапах. Такие процессы создают новую реальность, где защита не успевает реагировать, а утечки данных происходят раньше, чем система успевает оповестить.
Скрытые мотивы и неочевидные последствия
Технологии ИИ привлекают не только из-за их эффективности, но и из-за простоты масштабирования. Преступники используют ИИ как инструмент для автоматизации и оптимизации атак, что позволяет им минимизировать затраты и максимизировать урон. Для корпораций же проблема заключается не только в защите, но и в том, чтобы не стать жертвами инъекций запросов или отравления моделей, которые могут нарушить целостность данных и поставить под угрозу всю инфраструктуру. Особенно это касается государственных и финансовых структур, где даже небольшая утечка может привести к масштабным последствиям.
Одновременно с этим, многие компании внедряют ИИ без четкой стратегии, используя его «как есть», без адаптации под специфические задачи. Это приводит к тому, что системы безопасности не только не защищают, но и становятся уязвимыми точками. Такая практика, на первый взгляд, ускоряет внедрение, но в долгосрочной перспективе может привести к колоссальным рискам, которые сложно будет компенсировать.
Системные изменения и путь к защите
Решение проблемы требует системного подхода. В отчете предложена трехуровневая стратегия: защита ИИ, использование ИИ и регулирование ИИ. Каждый уровень связан с конкретными действиями: защита моделей и данных, внедрение ИИ в процессы обнаружения угроз и строгое соблюдение нормативных требований. Важно, что регулирование уже активно развивается — в Европе действует Акт об искусственном интеллекте, в США — рамочная программа управления рисками ИИ от NIST. Эти меры не только повышают уровень безопасности, но и создают финансовую ответственность для компаний, что снижает вероятность халатности.
Для России, где развитие ИИ находится на стадии масштабного внедрения, особенно важно учитывать опыт других стран. Системная защита, основанная на управляемых средах, где доступ к ИИ-инструментам ограничен и мониторится, может стать ключевым элементом стратегии. Это особенно актуально для малых команд, где ресурсы ограничены, а угрозы растут. Внедрение ранних систем обнаружения, таких как фильтрация электронной почты и звонков, позволяет снизить нагрузку на персонал и повысить эффективность работы.
Уроки, которые нужно усвоить
Работа с ИИ требует не только технологического, но и образовательного подхода. Особенно важна подготовка сотрудников, работающих в финансовой, кадровой и медицинской сфере — именно они чаще сталкиваются с фишинговыми атаками. Повышение их осведомленности о возможных сценариях атак — это не просто профилактика, а инвестиция в долгосрочную безопасность.
В конечном итоге, ИИ — это не только инструмент для оптимизации бизнеса, но и новый фронт в борьбе с киберугрозами. Тот, кто пойдет на поводу у технологий, не задумываясь о безопасности, — тот, кто потеряет больше всего. Для России, где развитие ИИ находится на подъеме, важно не повторять ошибки других стран. Системный подход, четкие нормы и ответственность — вот основа устойчивой цифровой будущности.