Китай вводит строгие правила для ИИ: безопасность, контроль и маркировка контента
Новые правила регулирования искусственного интеллекта в Китае обязывают компании использовать только безопасные данные для обучения ИИ и маркировать все созданные с его помощью материалы, чтобы обеспечить прозрачность и контроль контента. В рамках этих изменений вводятся строгие критерии фильтрации данных и вопросов, направленные на предотвращение угроз общественному порядку и государственной стабильности.
Новые правила регулирования искусственного интеллекта в Китае вступили в силу в ноябре. По данным The Wall Street Journal, изменения касаются как этапа обучения ИИ, так и этапа его тестирования перед запуском. Цель — минимизировать распространение контента, способного нарушить общественный порядок.
Компании, занимающиеся разработкой ИИ, теперь обязаны использовать только «безопасные» данные для обучения ботов. В их число не входят материалы, связанные с подрывом государственной власти, призывами к насилию, дискриминации или использованием чужих изображений без разрешения.
Каждый формат данных — текст, видео, изображения — подвергается строгой оценке. В результате не менее 96% обучающих материалов должны соответствовать критериям безопасности. Кроме того, системы должны отклонять не менее 95% вопросов, способных вызвать реакции, угрожающие государственному строю или социальной стабильности.
Контроль над контентом и маркировка
Все материалы, созданные с помощью ИИ, теперь должны быть маркированы. Это касается текстов, видео и изображений. Такая мера, по мнению регуляторов, повышает прозрачность и позволяет лучше контролировать распространение информации.
В апреле власти Китая за три месяца удалили около 960 тысяч единиц незаконного или вредного контента. Это указывает на активную работу по фильтрации и мониторингу цифровых ресурсов.
Роль крупных компаний
Правила были подготовлены совместно с ведущими компаниями в области ИИ, включая Alibaba и DeepSeek. Это демонстрирует стремление к сбалансированному подходу: с одной стороны, обеспечивается контроль над технологией, с другой — отрасль получает возможность развиваться в рамках установленных норм.
Стратегия Китая
В апреле президент Китая Си Цзиньпин заявил, что ИИ несёт «беспрецедентные возможности развития, но также и беспрецедентные риски и вызовы». Власти включили искусственный интеллект в Национальный план реагирования на чрезвычайные ситуации, наравне с природными катастрофами и эпидемиями.
Однако, как отмечает The Wall Street Journal, Пекин не стремится чрезмерно ограничивать развитие отрасли. Следит за тем, чтобы сохранить конкурентоспособность в условиях глобальной гонки за технологическое лидерство.
Влияние на рынок
Сложившаяся ситуация демонстрирует, что Китай готов к масштабной адаптации ИИ под национальные приоритеты. Это включает в себя не только технические аспекты, но и вопросы безопасности, социальной стабильности, а также влияния на государственную власть.
Интересно: Какие механизмы позволят одновременно обеспечить контроль над ИИ и сохранить динамику его развития в условиях жёстких регуляторных требований?

Регулирование ИИ в Китае: между контролем и развитием
В Китае вступили в силу новые правила регулирования искусственного интеллекта, затрагивающие этапы обучения и тестирования ИИ-моделей. На первый взгляд, это шаг к стабилизации цифровой среды. Но за формальными декларациями скрываются более глубокие процессы — баланс между контролем и инновациями, между национальной безопасностью и технологическим прогрессом.
Как устроены новые правила
Правила требуют, чтобы 96% данных, используемых для обучения ИИ, соответствовали критериям безопасности. Это означает, что компании должны тщательно фильтровать свои источники: избегать материалов, связанных с дискриминацией, насилием, подрывом государственной власти и использованием чужих изображений без разрешения. В дополнение, ИИ-системы должны отклонять не менее 95% вопросов, способных вызвать реакции, угрожающие социальной стабильности.
Такой подход создаёт чёткий фреймворк для работы с ИИ, но вводит сложные технические и организационные задачи. Компаниям нужно разработать внутренние процессы фильтрации данных, внедрить системы модерации и обеспечить прозрачность. Всё это требует ресурсов, времени и, что немаловажно, согласованности с государственными стандартами.
Кто вовлечён и зачем
Правила разрабатывались совместно с крупными ИИ-компаниями, такими как Alibaba и DeepSeek. Это указывает на то, что власти Китая не стремятся только ограничить отрасль, а хотят интегрировать её в национальную стратегию. Такой подход позволяет сохранить лидерство в области ИИ, одновременно снижая риски, связанные с распространением вредоносного контента.
Важный нюанс: Парадокс в том, что чем строже регулирование, тем больше усилий требуется для его соблюдения. Это может замедлить инновации, особенно для небольших компаний, у которых нет ресурсов для масштабного внедрения таких требований. В результате, рынок может консолидироваться в руках крупных игроков, способных справляться с новыми нормами.
Системные последствия и долгосрочные тренды
Введение маркировки ИИ-созданных материалов — это ещё один шаг к прозрачности. Но в условиях жёсткого контроля за контентом, это может привести к двойной трактовке: маркировка может быть инструментом доверия для пользователей, но также — способом отслеживания и ограничения свободы выражения.
Китай включил ИИ в Национальный план реагирования на чрезвычайные ситуации, что говорит о восприятии технологии как фактора, способного влиять на устойчивость государства. Это не случайно: ИИ может использоваться не только для автоматизации, но и для манипуляции общественным мнением, распространения дезинформации и даже вмешательства в политические процессы.
Российский контекст и практические выводы
Для российского бизнеса, особенно тех, кто работает с ИИ, эти изменения в Китае могут служить ориентиром. Регулирование в Китае демонстрирует, как государство может влиять на развитие ИИ, направляя его в рамках национальных интересов. Это важно учитывать при разработке стратегий внедрения ИИ в России, где, как ожидается, регуляторная база будет становиться всё более жёсткой.
Компаниям, работающим с ИИ, стоит заранее задуматься о внутренних механизмах фильтрации данных и модерации контента. Это поможет избежать санкций и снизить риски, связанные с нарушением норм. Важно также учитывать, что в условиях роста регуляторных требований, технологии, способные работать локально, без привлечения внешнего облака, будут иметь преимущество.
Важный нюанс: Регулирование ИИ в Китае не только ограничивает, оно перестраивает ландшафт отрасли. Компании, которые умеют работать в рамках строгих правил, получают преимущество — но цена входа растёт.
Развитие китайской ИИ-инфраструктуры
Помимо регуляторных мер, Китай активно развивает собственную ИИ-инфраструктуру. Например, экспериментальная сеть CENI демонстрирует передачу данных с гарантированной задержкой и джиттером, что критично для ИИ-нагруженных задач. В ходе тестов 72 терабайта информации были переданы на 1000 километров менее чем за 1,5 часа, что в десятки раз быстрее обычных сетей [!]. Это особенно важно для объектов вроде телескопа FAST, генерирующего до 100 терабайт данных в день.
Также Китай активно поддерживает развитие собственных чипов для ИИ. Alibaba и DeepSeek получают энергетические субсидии от провинций, что позволяет им снизить затраты и ускорить переход на отечественные решения. Например, Alibaba начала испытания нового процессора для задач искусственного интеллекта, изготовленного на собственных производственных мощностях, что делает компанию менее зависимой от иностранных технологий [!].
Рост конкуренции и международные связи
Китайские ИИ-модели, такие как DeepSeek и Alibaba, усиливают давление на западных конкурентов. В 2025 году DeepSeek представила модель V3.2, которая конкурирует с крупными американскими системами, такими как GPT-5 и Gemini 3 Pro. При этом стоимость обучения и использования API у китайских решений остаётся на более низком уровне, что делает их привлекательными для широкого круга пользователей [!].
Важный нюанс: Кроме того, DeepSeek стала популярной альтернативой в странах, где западные ИИ-сервисы недоступны. Например, в России доля Deepseek в топ-5 ИИ-сервисов выросла до 27,8%, превзойдя ChatGPT, чья доля снизилась до 39,9% [!]. Это подчёркивает, что глобальные рынки всё больше учитывают локальные решения, особенно в условиях геополитических напряжений.
Угрозы и защита
С ростом популярности ИИ увеличиваются и риски. Исследования показывают, что даже крупные модели подвержены атакам. Например, стихотворные запросы могут обходить защитные механизмы в 65% случаев [!]. Это требует от компаний постоянного улучшения систем модерации и контроля контента.
В России рост ботнет-атак в 2025 году вырос на 34% по сравнению с 2024 годом, а доля вредоносного трафика с территории страны увеличилась с 5% до 39% [!]. Это делает особенно актуальным внедрение систем защиты, включая аудит и мониторинг ИИ-процессов.
Выводы
Регулирование ИИ в Китае демонстрирует, как государство может влиять на развитие технологии, направляя её в рамках национальных интересов. Для российского бизнеса это важный ориентир, особенно в условиях роста регуляторных требований. Компаниям стоит заранее задуматься о внутренних механизмах фильтрации данных, модерации контента и локализации ИИ-процессов.
В условиях усиления конкуренции и международных напряжений, развитие собственных ИИ-технологий и инфраструктуры становится стратегическим приоритетом. Это не только снижает зависимость от иностранных решений, но и открывает возможности для роста и выхода на международные рынки.
Источник: The Wall Street Journal