Март 2026   |   Обзор события   | 6

Рост киберпреступлений в Китае на 158%: ИИ стал главным инструментом мошенников

Китайские суды фиксируют взрывной рост киберпреступности на 158%, где искусственный интеллект превращается из инструмента прогресса в главное оружие мошенников. Эта тенденция формирует жесткий глобальный тренд: технологическая автоматизация не снимает ответственность с человека, а лишь ускоряет карательные механизмы против тех, кто делегирует контроль машинам.

ИСХОДНЫЙ НАРРАТИВ

По данным Cybernews, в Китае зафиксирован резкий рост числа киберпреступлений, связанный с активным внедрением технологий искусственного интеллекта. Судебная система страны сообщает о том, что преступники все чаще используют ИИ для организации мошенничества, утечки личных данных и других онлайн-нарушений. Эта тенденция отражена в ежегодных отчетах, представленных в ходе парламентских слушаний «Двух сессий».

Масштаб роста киберугроз и реакция судов

За последние пять лет суды Китая завершили рассмотрение 9 326 дел о преступлениях, угрожающих кибербезопасности. Этот показатель на 158,5% превышает аналогичный объем за предыдущий пятилетний период. Данные были обнародованы Верховным народным судом в рамках доклада законодателям. Чиновники указывают, что такой скачок обусловлен усложнением структуры киберпреступности на фоне стремительного распространения ИИ, интеллектуальных транспортных средств и других автономных технологий.

Судебная система подтвердила усиление усилий по преследованию лиц, подрывающих цифровую безопасность. В отчете перечислен широкий спектр правонарушений: от телефонного мошенничества и распространения ложной информации в сети до кибербуллинга и публичного раскрытия личных данных (doxxing). Статистика демонстрирует, что суд рассматривает более 9300 уголовных дел, связанных с кибербезопасностью.

ПоказательЗначение за последние 5 летДинамика к предыдущему периоду
Завершенные дела по киберпреступлениям9 326+158,5%
Основные категории угрозМошенничество, doxxing, фейки, кибербуллингУсложнение схем

Эволюция преступных схем и новые правовые вызовы

Прокуроры Китая привели конкретные примеры, иллюстрирующие масштаб злоупотребления персональными данными. В одном из расследованных случаев подозреваемые незаконно получили доступ к сотням миллионов записей с личной информацией граждан. Этот инцидент демонстрирует трансформацию экосистемы киберпреступности: преступные сети теперь комбинируют украденные данные, инструменты анонимной связи и цифровые валюты для монетизации информации и реализации мошеннических операций.

Верховный народный суд акцентировал внимание на необходимости четкого определения уголовной ответственности за нарушения с использованием новых технологий. В качестве примера была приведена ситуация с водителем, находившимся в нетрезвом состоянии. Мужчина уснул на пассажирском сиденье, полагаясь на систему искусственного интеллекта для управления автомобилем. Транспортное средство остановилось посреди дороги, что привело к вмешательству полиции.

Суд сформулировал ключевой принцип: бортовая система помощи водителю не может заменить человека в качестве основного субъекта управления транспортным средством. Это решение подчеркивает важность человеческого контроля даже при наличии передовых автоматизированных решений.

Глобальный контекст и ужесточение мер

Развитие ситуации в Китае перекликается с общими мировыми опасениями относительно влияния генеративного ИИ на безопасность. Исследователи предупреждают, что инструменты на базе искусственного интеллекта снижают порог входа для киберпреступников, позволяя создавать более убедительные фишинговые кампании, автоматизировать мошенничество и масштабировать операции по распространению дезинформации.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Китай ужесточил правоприменение в отношении мошенничества с использованием цифровых технологий. В частности, власти усилили реакцию на трансграничные схемы обмана. Страной вынесены строгие приговоры организаторам сетей онлайн-мошенничества, связанным с центрами в Юго-Восточной Азии. Для российского бизнеса это сигнал о том, что глобальные цепочки поставок и цифровые сервисы требуют повышенной осторожности, так как регуляторы во всем мире усиливают контроль над использованием данных и автоматизированных систем.

Эксперты отмечают, что для минимизации рисков компаниям необходимо пересмотреть подходы к защите информации и внедрению автономных технологий. Юридическая практика показывает, что ответственность за действия автоматизированных систем остается на людях, управляющих этими процессами. Усиление правоохранительной деятельности в Китае указывает на то, что борьба с киберпреступностью становится приоритетом для государств, активно развивающих цифровую экономику.

АНАЛИТИЧЕСКИЙ РАЗБОР

Китайская статистика как сигнал о смене эпохи в кибербезопасности

Рост числа судебных дел о киберпреступлениях в Китае на 158,5% за пять лет — это не только цифра в отчете Верховного народного суда. За показателем в 9 326 завершённых дел скрывается фундаментальное изменение природы угроз. Технологии искусственного интеллекта перестали быть вспомогательным инструментом и превратились в драйвер, позволяющий масштабировать мошенничество до промышленных объемов. То, что раньше требовало команды профессионалов с глубокими знаниями кода, теперь доступно злоумышленникам с базовыми навыками работы с нейросетями.

Этот сдвиг меняет механику атак. Преступники больше не тратят месяцы на подбор жертв или создание сложных фишинговых писем вручную. Алгоритмы генерируют персонализированные сообщения, анализируют поведение пользователей и адаптируются к их реакциям в реальном времени. Эффект лавины возникает быстро: одна успешная схема мгновенно копируется и модифицируется тысячами аккаунтов одновременно. Для бизнеса это означает, что традиционные методы защиты, основанные на фильтрации известных угроз, теряют эффективность. Злоумышленники создают новые векторы атак быстрее, чем специалисты по безопасности успевают обновлять правила защиты.

Важный нюанс: Рост киберпреступности в Китае демонстрирует, что ИИ превратил мошенничество из точечной атаки в массовый конвейерный процесс, где человеческий фактор сменился алгоритмической эффективностью.

Цена доверия к автономным системам и иллюзия контроля

Особую тревогу вызывает прецедент с водителем, уснувшим за рулём автомобиля с системой автопилота. Судебное решение, закрепившее ответственность человека даже при наличии передовых технологий, выявляет глубокую проблему восприятия автоматизации. Производители и пользователи склонны идеализировать возможности ИИ, полагая, что машина справится с задачей лучше человека. Это доверие создает иллюзию безопасности, которая в критический момент оборачивается риском.

Механизм здесь прост: чем умнее система, тем меньше человек хочет вмешиваться в её работу. Водитель перестает быть оператором и становится пассивным наблюдателем. Когда алгоритм сталкивается с нестандартной ситуацией, реакция человека оказывается замедленной из-за потери бдительности. Однако современные исследования показывают, что даже бдительный человек не всегда способен предотвратить угрозу.

Существуют атаки типа VillainNet, которые активируются только при специфических условиях, например, во время дождя [!]. Такие «спящие» угрозы маскируются под обычное поведение ИИ и остаются незамеченными для текущих методов защиты. Обнаружение подобных уязвимостей требует в 66 раз больше вычислительных ресурсов, чем доступно сегодня [!]. Это означает, что модель «человек контролирует машину» технически неэффективна против угроз, скрытых в самом коде и проявляющихся только при редких условиях.

Для российского бизнеса, внедряющего автономные решения в логистику и производство, это сигнал о необходимости пересмотра подходов к безопасности. Технология не заменяет контроль, но традиционный человеческий надзор становится недостаточным. Ответственность за действия «умных» систем юридически остается на людях, что делает вопрос архитектурной защиты вопросом выживания бизнеса.

Важный нюанс: Юридическая практика показывает, что автоматизация процессов не снимает с человека ответственности за их результаты; новые угрозы требуют перехода от простого контроля к глубокой технической изоляции систем.

Эволюция угроз: от фишинга к автономным агентам

Угроза смещается с пассивного фишинга на активные действия внутри корпоративных сетей. Автономные ИИ-агенты перешли от роли чат-ботов к выполнению сложных действий с интегрированными инструментами [!]. Они охотятся за данными в ненадежных источниках и игнорируют старые периметры безопасности, что делает традиционные брандмауэры бессильными.

Злоумышленники используют чат-боты с функцией поиска в интернете как канал для передачи команд вредоносному ПО, маскируя трафик под легитимное взаимодействие [!]. Вредоносный код может запрашивать у чат-бота обработку URL, чтобы получать инструкции с внешних ресурсов, а также передавать данные через параметры запросов. Такие атаки трудно выявить, так как они выглядят как обычный веб-трафик.

Ситуация усугубляется тем, что утечки данных через ИИ-сервисы растут экспоненциально. В 2025 году объем утекшей информации увеличился в 30 раз по сравнению с предыдущим периодом [!]. Основной причиной стали отсутствие четких политик по работе с искусственным интеллектом в 60% организаций [!]. Преступные сети комбинируют украденные данные, инструменты анонимной связи и цифровые валюты для монетизации информации, действуя быстрее, чем бизнес успевает реагировать.

Важный нюанс: Агентный ИИ ускоряет масштаб атак до минут, позволяя злоумышленникам атаковать с неслыханной точностью [!]. В таких условиях защита 95% устройств больше не спасает; уязвимости становятся правилом, если не обеспечен полный контроль на уровне прошивки и автоматизированная реакция.

Глобальные цепочки и новые стандарты защиты

Ужесточение правоприменения в Китае и борьба с трансграничными схемами мошенничества указывают на то, что кибербезопасность становится глобальным стандартом. Российские компании, интегрированные в международные цепочки поставок или использующие зарубежные цифровые сервисы, оказываются в зоне повышенного внимания регуляторов.

Риск заключается не только в прямом мошенничестве, но и в утечке данных, которые могут быть использованы для шантажа или манипуляций. Преступные сети, использующие ИИ для сбора и монетизации информации, действуют быстро и скрытно. Утечка сотен миллионов записей, о которой сообщают китайские прокуроры, — это индикатор того, что базы данных стали главной целью атак.

Для бизнеса это означает необходимость перехода к многоуровневой защите. Статические методы защиты неэффективны против атак на естественном языке, поэтому необходимо использовать специализированные защитные слои на базе ИИ и автоматизированное тестирование уязвимостей [!]. Ключевым фактором выживания становится внедрение изолированных песочниц и принцип наименьших привилегий с обязательным участием человека в чувствительных действиях.

Кроме того, усиление контроля над трансграничными операциями может привести к росту издержек на соблюдение нормативных требований. Компании будут вынуждены инвестировать в более сложные системы аудита и мониторинга, чтобы доказать законность своих действий перед регуляторами разных стран. Те игроки, которые не успеют адаптироваться к этим изменениям, рискуют потерять доступ к ключевым рынкам или столкнуться с серьезными штрафами.

В конечном итоге, развитие технологий ИИ создает новую реальность: чем больше возможностей открывает автоматизация, тем выше цена ошибки. Успех в новых условиях будет зависеть не от того, насколько умной станет система, а от того, насколько грамотно она будет изолирована и управляться людьми. Переход от «человеческого надзора» к «архитектурной изоляции» становится единственным способом сохранить безопасность в эпоху автономных агентов.

Коротко о главном

Какие технологии стали основной причиной резкого роста киберугроз?

Стремительное распространение искусственного интеллекта, интеллектуальных транспортных средств и других автономных систем позволило преступникам масштабировать мошенничество, утечки данных и кибербуллинг.

Почему водитель автомобиля с ИИ был привлечен к ответственности за управление в нетрезвом виде?

Мужчина уснул на пассажирском сиденье, полагаясь на бортовую систему помощи, что привело к остановке машины посреди дороги и подтвердило принцип невозможности замены человека автоматизированными решениями.

Как изменились методы монетизации украденных данных преступными группами?

Преступные сети начали комбинировать сотни миллионов записей личных данных с инструментами анонимной связи и цифровыми валютами для реализации более сложных мошеннических операций.

Против каких схем мошенничества Китай ужесточил правоприменение?

Власти вынесли строгие приговоры организаторам трансграничных сетей онлайн-мошенничества, связанных с центрами в Юго-Восточной Азии, чтобы пресечь использование цифровых технологий для обмана граждан.

Какой принцип ответственности закреплен судебной практикой по делам с автономными системами?

Ответственность за действия автоматизированных систем остается на людях, управляющих этими процессами, что требует от пользователей постоянного контроля даже при наличии передовых технологий.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Аналитика и исследования; Право и регулирование; Государственное управление и общественная сфера; Транспорт и логистика; Беспилотный транспорт

Оценка значимости: 6 из 10

Событие относится к глобальным трендам в сфере кибербезопасности и технологий искусственного интеллекта, которые напрямую затрагивают интересы России через риски для бизнеса, цепочек поставок и необходимость адаптации собственных регуляторных практик. Рост числа преступлений с использованием ИИ в Китае служит важным сигналом о трансформации угроз, влияющей на технологии, экономику и правовую сферу, что требует долгосрочного внимания со стороны российских специалистов и компаний для минимизации потенциальных рисков.

Материалы по теме

Спящая атака VillainNet выходит из-под контроля при дожде

Данные об атаке VillainNet, активирующейся только во время дождя, и требующей в 66 раз больше вычислительных ресурсов для обнаружения, служат конкретным доказательством неэффективности модели «человек контролирует машину». Эти факты иллюстрируют глубину проблемы: даже бдительный оператор бессильен против скрытых уязвимостей, проявляющихся лишь при специфических условиях, что делает традиционный надзор технически несостоятельным.

Подробнее →
Автономные ИИ-агенты: уязвимость приложений требует перехода к многоуровневой защите

Информация о трансформации ИИ-агентов из чат-ботов в активных исполнителей с инструментами обосновывает тезис о бессилии традиционных брандмауэров и необходимости перехода к многоуровневой защите. Упоминание специализированных защитных слоев на базе ИИ и автоматизированного тестирования уязвимостей формирует практический вывод для бизнеса: статические методы больше не работают против атак на естественном языке, требуя архитектурной изоляции.

Подробнее →
Чат-боты становятся каналами для кибератак: данные и команды скрываются в обычном трафике

Факт использования чат-ботов с функцией поиска в интернете как канала для передачи команд вредоносному ПО подкрепляет идею о смещении угроз от пассивного фишинга к активным действиям внутри сетей. Описание маскировки трафика под легитимное взаимодействие и обработки URL через ботов демонстрирует, почему старые периметры безопасности игнорируются злоумышленниками, делая атаки практически невидимыми для стандартных систем мониторинга.

Подробнее →
ИИ-сервисы ускоряют утечки данных: почему 60% компаний остаются без защиты

Статистика о 30-кратном росте утечек данных в 2025 году и отсутствии политик ИИ в 60% организаций служит количественным подтверждением экспоненциального роста рисков при внедрении новых технологий. Эти цифры усиливают аргумент о том, что отсутствие четких регламентов является главной причиной уязвимости бизнеса, превращая инструменты эффективности в каналы для масштабной монетизации украденной информации преступными сетями.

Подробнее →
Агентный ИИ переворачивает кибербезопасность: защита 95% устройств больше не спасает

Утверждение о том, что агентный ИИ ускоряет атаки до минут и делает защиту 95% устройств недостаточной, подкрепляет вывод о необходимости полного контроля на уровне прошивки. Этот факт разрушает иллюзию безопасности при частичном покрытии, показывая, что в новой реальности уязвимости становятся правилом, если не обеспечена автоматизированная реакция и тотальный контроль инфраструктуры.

Подробнее →