Ноябрь 2025   |   Обзор события   | 7

Минцифры обсуждает маркировку контента, созданного ИИ

Министерство цифрового развития рассматривает возможность маркировки контента, созданного искусственным интеллектом, включая обозначение материалов как «оригинальных», то есть созданных человеком. В ведомстве планируют создать рабочую группу для разработки подходов к маркировке, которая будет обсуждать технические и нормативные аспекты реализации механизма.

ИСХОДНЫЙ НАРРАТИВ

По данным Интерфакс, Министерство цифрового развития обсуждает возможность маркировки контента, сгенерированного искусственным интеллектом. Об этом заявил заместитель главы ведомства Александр Шойтов на форуме «IT-диалог 2025». По его словам, ведётся работа над тем, как идентифицировать такие материалы, а также рассматривается возможность запуска пилотного проекта.

Варианты маркировки включают обозначение контента как «оригинального», то есть созданного человеком, или, наоборот, как сгенерированного ИИ. Александр Шойтов склоняется к первому варианту, подчеркивая, что это может создать зону доверия для пользователей. «Если в соцсетях вы видите подписанный материал, вы понимаете, что за него несут ответственность. Если подписи нет — гарантий меньше, но не значит, что контент ложный», — пояснил он.

В Минцифры также отметили, что технологии для реализации такого механизма уже существуют. В ближайшее время в ведомстве планируется создать рабочую группу по разработке подходов к маркировке. Решение об этом принято по поручению научного совета Совета безопасности. В рамках этой группы будут обсуждаться как технические, так и нормативные аспекты.

В конце октября аналогичную инициативу поддержал спикер Госдумы Вячеслав Володин. Он отметил, что сгенерированный ИИ-контент иногда используется с противоправными целями, включая распространение дезинформации. «Встает вопрос о маркировке контента, созданного ИИ», — заявил он. В рамках парламента также планируется проведение слушаний по теме искусственного интеллекта.

Минцифры видит в маркировке ИИ-контента не только инструмент повышения прозрачности, но и механизм ответственности за использование дипфейков. Как отметил Шойтов, ближайшая цель — создание среды, где пользователи могут быть уверены в источнике информации, а за злоупотреблениями будет легче проследить.

Интересно: Как маркировка ИИ-контента повлияет на формирование доверия к цифровым источникам и какие вызовы возникнут при внедрении такого механизма на практике?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Маркировка ИИ-контента: когда прозрачность становится новой ответственностью

Разговор о маркировке контента, сгенерированного искусственным интеллектом, не только отражает стремление к прозрачности. Это попытка создать новый уровень доверия в цифровом пространстве, где границы между реальностью и генерацией всё чаще стираются. Подобные иниативы уже обсуждаются в других странах, но в России они приобретают специфический оттенок — в условиях, когда дезинформация может стать не только инструментом влияния, но и угрозой общественному согласию.

Упорядочение использования ИИ: технические и правовые вызовы

Ключевая идея, заложенная в инициативе Минцифры, — не столько ограничение ИИ, сколько упорядочение его использования. Если человек, публикуя текст, фото или видео, несёт за это ответственность, то ИИ-контент, по сути, лишён этой ответственности. Маркировка может стать первым шагом к её введению. Однако это не только техническая задача — она открывает сложные этические и правовые вопросы. Например, кто будет нести ответственность за ИИ-контент: сам ИИ, его разработчик, пользователь или платформа, на которой он размещён?

В этой связи становится очевидным, что маркировка может стать не только инструментом прозрачности, но и новым регуляторным рычагом. В долгосрочной перспективе это может повлиять на то, как будут работать алгоритмы рекомендаций, как будут формироваться позиции в поисковых системах и как будет оцениваться релевантность контента. Для бизнеса, особенно в медиа и рекламе, это означает необходимость пересмотра стратегий контент-маркетинга и проверки источников.

Баланс между контролем и развитием технологий

Важно отметить, что в Госдуме также обсуждается необходимость баланса между контролем и развитием отечественных ИИ-технологий. Председатель комитета по информационной политике Сергей Боярский подчеркнул, что нейросети, обучаясь на контенте крупных изданий, одновременно вытесняют профессиональных авторов. Это ставит под вопрос не только этичность использования данных, но и будущую модель контент-производства. В рамках этих дискуссий предлагаются ограничения, которые снизят риски, но не мешали бы развитию отечественных решений [!].

Решение о маркировке также связано с более широкими инициативами по регулированию ИИ. Минцифры совместно с Альянсом в сфере искусственного интеллекта разработало концепцию регулирования, в которой упоминаются термины «доверенные технологии» и «агентный ИИ». Документ подчеркивает необходимость гибкости и адаптивности законодательства, а также стремление заранее задать правила, чтобы снизить риски, связанные с универсальным ИИ [!].

Практические вызовы и энергетические последствия

На практике реализация маркировки сталкивается с рядом вызовов. Даже при наличии метки «сгенерировано ИИ» пользователь всё равно может воспринимать информацию как достоверную. Более того, маркировка может быть обойдена, если не будут ужесточены требования к алгоритмам идентификации. В этом смысле важным фактором станет развитие независимых систем проверки и стандартизация подходов к маркировке.

Особую актуальность эта тема приобретает на фоне роста энергопотребления центров обработки данных. К 2030 году потребление электроэнергии ЦОДов в России может вырасти в 2,5 раза. Развитие ИИ и цифровизации экономики стимулирует этот рост, что требует от государства оперативного реагирования на изменения инфраструктуры [!].

Коротко о главном

Какие варианты маркировки ИИ-контента рассматриваются?

Варианты включают обозначение контента как «оригинального» (человеческого) или сгенерированного ИИ, при этом предпочтение склоняется к маркировке человеческого контента.

Почему Минцифры поддерживает маркировку человеческого контента?

Это может создать зону доверия для пользователей, поскольку подписанный материал воспринимается как более ответственный, чем неопознанный.

Когда планируется создать рабочую группу по маркировке ИИ-контента?

В ближайшее время в Минцифре намерены создать рабочую группу, решение об этом принято по поручению научного совета Совета безопасности.

Какую позицию занял спикер Госдумы Вячеслав Володин?

Он поддержал инициативу маркировки ИИ-контента, отметив, что он может использоваться для распространения дезинформации и других противоправных целей.

Какую цель ставит Минцифры при внедрении маркировки?

Ведомство видит в этом не только инструмент повышения прозрачности, но и способ легче выявлять злоупотребления, включая дипфейки.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Государственное управление и общественная сфера

Оценка значимости: 7 из 10

Обсуждение маркировки ИИ-контента в России затрагивает масштабную аудиторию — цифровую общественность страны, включая пользователей соцсетей, СМИ и государственных структур. Инициатива касается нескольких ключевых сфер: технологий, медиа, правоприменения и безопасности. Время воздействия пока не определено, но процесс предполагает долгосрочные изменения в регулировании цифрового пространства. Глубина последствий высока, так как речь идёт о доверии к информации и ответственности за её распространение, что особенно важно в условиях роста дезинформации.

Материалы по теме

Госдума обсуждает возможную маркировку ИИ-контента

Упоминание Сергея Боярского и его позиции о маркировке ИИ-контента как инструмента баланса между защитой авторов и развитием технологий напрямую берётся из блока. Это укрепляет аргумент о необходимости регулирования, которое не подавляет инновации, а направляет их.

Подробнее →
Концепция регулирования ИИ в России

Ссылка на работу Минцифры и Альянса в сфере ИИ, а также упоминание терминов «доверенные технологии» и «агентный ИИ» взяты из блока. Они служат для иллюстрации масштаба идей регулирования, подчеркивая, что речь идёт не только о маркировке, но и о формировании всей правовой базы для ИИ.

Подробнее →
Российские ЦОДы к 2030 году потребуют в 2,5 раза больше энергии — как власти готовятся к росту нагрузки

Утверждение о росте энергопотребления ЦОДов в 2,5 раза к 2030 году и связь этого явления с развитием ИИ взяты из блока. Это усиливает аргумент о том, что регулирование ИИ не только этическая, но и практическая необходимость, связанная с инфраструктурными вызовами.

Подробнее →