ИИ становится оружием киберпреступности: три главных риска
Рост угроз в киберпространстве связан с активным использованием искусственного интеллекта как в атаках, так и в защитных мерах, что создаёт новые риски для компаний и государственных структур. Киберпреступники масштабируют фишинг и социальную инженерию с помощью ИИ, а организации сталкиваются с трудностями в обеспечении безопасности из-за уязвимостей в цепочках поставок и нехватки квалифицированных специалистов.
Рост угроз в сфере кибербезопасности: три основных направления рисков
По данным Helpnetsecurity, кибербезопасность сталкивается с растущими вызовами, связанными с киберпреступностью, злоупотреблением искусственным интеллектом и уязвимостями в цепочках поставок. В отчёте Global Cybersecurity Outlook 2026, подготовленном Всемирным экономическим форумом, отмечается, что нагрузка на команды по обеспечению безопасности выходит за рамки технических мер.
Распространение ИИ вносит существенные изменения как в защиту, так и в атаки. Среди новых инструментов, основанных на ИИ, — системы обнаружения фишинга, обработка уведомлений и ускоренная реакция на инциденты. Однако внедрение ИИ также вносит новые риски, связанные с утечкой данных, злоупотреблением моделями и ошибками в автоматизации. Особенно высокая степень беспокойства наблюдается по поводу уязвимостей, созданных генеративными ИИ-системами. Утечка данных и неправомерное использование закрытой информации занимают лидирующие позиции в рейтинге рисков, связанных с ИИ.
ИИ становится оружием в кибервойне
Атакующие активно используют ИИ для масштабирования социальной инженерии, создания убедительного контента и автоматизации разведки. «Оружие ИИ, постоянные геополитические трения и системные риски в цепочках поставок переворачивают традиционные подходы к киберзащите. Для руководителей компаний становится очевидным: необходимо переходить от традиционной киберзащиты к защите, основанной на продвинутом агентском ИИ, чтобы противостоять угрозам, созданным ИИ», — отметил Паоло Дал Цин (Paolo Dal Cin), глобальный руководитель по кибербезопасности в Accenture.
Организации пытаются придать структуру внедрению ИИ. Внедряются регулярные оценки вместо одноразовых проверок, однако прогресс остаётся неоднозначным. Многие компании продолжают использовать ИИ без формальной проверки безопасности, что оставляет пробелы. ИИ уже интегрирован в ряд операций безопасности, таких как защита электронной почты, обнаружение аномалий и поведенческий мониторинг. Однако нехватка квалифицированных кадров замедляет более широкое применение, особенно там, где команды не имеют опыта управления ИИ-системами или проверки автоматизированных результатов.
Геополитика оказывает давление на кибероперации
Геополитическая нестабильность всё больше влияет на планирование кибербезопасности. Многие организации учитывают в своих оценках рисков деятельность государственных атакующих, нарушения инфраструктуры и дезинформацию. Эти факторы влияют на выбор поставщиков, обмен интеллектуальными данными и приоритеты инвестиций.
Наибольшее влияние от геополитических условий испытывают крупные организации. Их глобальные операции увеличивают уязвимость к санкциям, региональным конфликтам и разногласиям в регулировании. Такие компании чаще корректируют стратегии, расширяют усилия по разведке угроз и сотрудничают с государственными партнёрами.
Уверенность в готовности государства к крупным киберинцидентам остаётся неоднозначной. В некоторых регионах высокий уровень доверия к готовности государственных органов, в других — наблюдается снижение уверенности. Организации из государственного сектора чаще сообщают о низкой уверенности в своей устойчивости, особенно при защите критической инфраструктуры.
Финансовые ограничения усиливают уязвимости
Организации сообщают о сокращении расходов на безопасность из-за экономической и политической неопределённости, несмотря на высокий уровень угроз. Это оставляет команды безопасности с расширенным риском и ограниченной гибкостью. Киберпреступность, усиленная ИИ, становится одной из самых заметных угроз. Руководители компаний и ИТ-директора по-разному оценивают приоритеты рисков: для первых ведущим остаётся киберпреступность и фишинг, для вторых — вынужденные выкупы и нарушения цепочек поставок.
Рост фишинга и мошенничества связан с развитием ИИ. Автоматизированные инструменты позволяют преступникам масштабировать мошеннические схемы, локализовать контент и имитировать доверенные голоса с высокой точностью. Это увеличивает уязвимости среди разных регионов и демографических групп.
Кооперация между правоохранительными органами усиливается
В 2025 году усилилась кооперация между правоохранительными органами, что привело к нескольким координированным действиям по разрушению инфраструктуры киберпреступности. Эти меры демонстрируют улучшенную международную координацию, хотя масштаб преступной деятельности продолжает расти.
Рост устойчивости при давлении
Организации сообщают о постепенном улучшении киберустойчивости. Более высокий уровень удовлетворённости наблюдается в сравнении с предыдущими годами, и всё больше компаний считают, что их устойчивость превышает минимальные требования. Однако крупные киберинциденты 2025 года показали, что уязвимости сохраняются даже среди тех, кто заявляет о высокой готовности.
Зависимость от цепочек поставок остаётся важной проблемой. Организации с высокой устойчивостью уделяют особое внимание оценке рисков у поставщиков, анализу поставщиков и участию в закупках. У менее устойчивых компаний основными барьерами остаются финансовые ограничения и нехватка квалифицированных кадров. Устаревшие системы продолжают влиять на устойчивость: многие компании работают в гибридных средах, где новые технологии сосуществуют с устаревшей инфраструктурой, что усложняет работу команд безопасности.
Интересно: Придется ли в ближайшем будущем создавать принципиально новую юридическую категорию «цифровая самооборона» для оправдания превентивных автоматических ИИ-атак в ответ на угрозы?

Кибербезопасность в эпоху ИИ: новые угрозы, новые реалии
ИИ как двойственный фактор: инструмент защиты и оружие атак
Искусственный интеллект, который когда-то обещал стать надежной опорой в борьбе с киберугрозами, всё чаще становится их оружием. Это не случайность. Системы, обученные распознавать угрозы, одновременно могут быть использованы для создания более убедительных фишинговых писем, имитации голоса руководителей или автоматического анализа уязвимостей в цепочках поставок. Проблема не в самой технологии — проблема в том, что она стала слишком доступной и слишком мощной.
Компании внедряют ИИ для повышения эффективности: он помогает анализировать данные в реальном времени, выявлять аномалии и сокращать время реакции. Но это же качество делает его привлекательным для злоумышленников. Утечка данных, ошибки в обучении модели, неправильная интерпретация контекста — всё это может стать дверью в систему. Особенно критично, когда ИИ используется без должной проверки: если модель обучена на некорректных или устаревших данных, её выводы могут быть ошибочными, а значит — уязвимыми.
Важный нюанс: ИИ не делает мир безопаснее. Он меняет правила игры, и те, кто не готов к этим изменениям, теряют инициативу первыми.
Геополитика и киберпространство: когда границы теряют значение
Киберпространство давно перестало быть нейтральным. Оно стало полем для геополитических конфликтов. Санкции, конфликты, национальные законы — всё это влияет на то, как компании защищают свои данные. Особенно это чувствуется в глобальных организациях, где инфраструктура распределена по разным странам, каждая из которых имеет свои требования к хранению данных, обработке информации и ответственности за утечки.
Важный нюанс: Кибербезопасность больше не зависит только от технологий. Она становится частью геополитической игры, где каждая страна пытается защитить свои интересы в цифровом пространстве.
Человеческий фактор: нехватка кадров и финансирование
Несмотря на рост угроз, многие компании продолжают недооценивать необходимость в квалифицированных специалистах по кибербезопасности. В отчёте подчёркивается, что нехватка кадров — один из главных барьеров для эффективной защиты. Особенно это касается ИИ-систем, которые требуют не только технических знаний, но и понимания рисков, связанных с их использованием.
Финансовые ограничения усиливают эту проблему. В условиях нестабильной экономики компании вынуждены сокращать расходы на ИТ-инфраструктуру. Это приводит к тому, что устаревшие системы остаются в работе дольше, чем это безопасно. Гибридные среды, где современные технологии сосуществуют с устаревшими, становятся уязвимыми местами. И если раньше хакеры искали слабые места в программном обеспечении, то теперь они могут целенаправленно атаковать точки сопряжения между старыми и новыми системами.
Важный нюанс: Для минимизации рисков ключевым становится аудит ИИ-моделей и их интеграции в существующие процессы, особенно в условиях дефицита кадров и ограниченных ресурсов.
Новые угрозы из-за ИИ: дипфейки, генеративные атаки и автоматизация мошенничества
Искусственный интеллект не только меняет способы атак — он делает их более масштабными и изощрёнными. Группа GTG-1002 провела первую в истории кибератаку, полностью организованную ИИ, без участия человека. Это событие ставит под сомнение традиционные методы киберзащиты, сталкивающиеся с противником, способным действовать в масштабах и скорости, недоступных человеку [!].
Генеративные модели, такие как дипфейки, уже используются для создания убедительных поддельных видео и аудио, которые применяются в фишинговых атаках. Это делает обнаружение угроз сложнее, так как пользователи могут не отличить сгенерированный контент от настоящего. В 2025 году в российском сегменте интернета зафиксировано 13 млрд утекших строк персональных данных, что в 3,7 раза превышает показатель аналогичного периода 2024 года [!]. При этом фишинговые атаки стали технически более сложными, с почти удвоенным количеством выявленных фишинговых сайтов.
Важный нюанс: Системы кибербезопасности должны перестраиваться под реальности ИИ-атак, включая автоматизированные методы обнаружения и блокировки дипфейков и генеративных фишинговых атак.
Напряжение в цепочках поставок и дефицит компонентов
Рост спроса на ИИ-оборудование привёл к глобальному дефициту оперативной памяти DRAM, что вызвало резкий рост цен. Цепочки поставок оказались не в состоянии сбалансировать увеличение потребности, что привело к нестабильности на рынке. Производители, включая G. SKILL и Micron, сообщают о значительном росте затрат на закупку и снабжение [!].
Это напрямую влияет на кибербезопасность: дефицит компонентов и высокие цены ограничивают возможности компаний обновлять оборудование, что повышает уязвимость старых систем. Особенно это касается российских предприятий, где зависимость от импортных компонентов остаётся высокой. В таких условиях становится важным разрабатывать стратегии, обеспечивающие контроль, прозрачность и альтернативные выборы в области ИИ и облачных решений, особенно с учётом рисков, связанных с резидентностью данных [!].
Важный нюанс: Дефицит памяти и ИИ-оборудования может стать фактором, ограничивающим возможности по улучшению кибербезопасности, особенно для компаний с ограниченными бюджетами.
Заключение: адаптация к новой реальности
Кибербезопасность переживает эпоху перемен. Технологии, которые обещали защитить, теперь сами становятся угрозой. Геополитика влияет на доступ к данным и инфраструктуре. А нехватка кадров и финансирование ставят под угрозу даже самые продвинутые системы. В этой ситуации главное — не отставать. Не только в плане технологий, но и в понимании того, как эти технологии меняют правила игры.
Важный нюанс: Компании, откладывающие внедрение ИИ и пересмотр стратегии кибербезопасности, рискуют столкнуться с потерей конкурентного преимущества в условиях растущих угроз и изменений в технологических реалиях.
Источник: helpnetsecurity.com