Минцифры обсуждает маркировку контента, созданного ИИ
Министерство цифрового развития рассматривает возможность маркировки контента, созданного искусственным интеллектом, включая обозначение материалов как «оригинальных», то есть созданных человеком. В ведомстве планируют создать рабочую группу для разработки подходов к маркировке, которая будет обсуждать технические и нормативные аспекты реализации механизма.
По данным Интерфакс, Министерство цифрового развития обсуждает возможность маркировки контента, сгенерированного искусственным интеллектом. Об этом заявил заместитель главы ведомства Александр Шойтов на форуме «IT-диалог 2025». По его словам, ведётся работа над тем, как идентифицировать такие материалы, а также рассматривается возможность запуска пилотного проекта.
Варианты маркировки включают обозначение контента как «оригинального», то есть созданного человеком, или, наоборот, как сгенерированного ИИ. Александр Шойтов склоняется к первому варианту, подчеркивая, что это может создать зону доверия для пользователей. «Если в соцсетях вы видите подписанный материал, вы понимаете, что за него несут ответственность. Если подписи нет — гарантий меньше, но не значит, что контент ложный», — пояснил он.
В Минцифры также отметили, что технологии для реализации такого механизма уже существуют. В ближайшее время в ведомстве планируется создать рабочую группу по разработке подходов к маркировке. Решение об этом принято по поручению научного совета Совета безопасности. В рамках этой группы будут обсуждаться как технические, так и нормативные аспекты.
В конце октября аналогичную инициативу поддержал спикер Госдумы Вячеслав Володин. Он отметил, что сгенерированный ИИ-контент иногда используется с противоправными целями, включая распространение дезинформации. «Встает вопрос о маркировке контента, созданного ИИ», — заявил он. В рамках парламента также планируется проведение слушаний по теме искусственного интеллекта.
Минцифры видит в маркировке ИИ-контента не только инструмент повышения прозрачности, но и механизм ответственности за использование дипфейков. Как отметил Шойтов, ближайшая цель — создание среды, где пользователи могут быть уверены в источнике информации, а за злоупотреблениями будет легче проследить.
Интересно: Как маркировка ИИ-контента повлияет на формирование доверия к цифровым источникам и какие вызовы возникнут при внедрении такого механизма на практике?

Маркировка ИИ-контента: когда прозрачность становится новой ответственностью
Разговор о маркировке контента, сгенерированного искусственным интеллектом, не только отражает стремление к прозрачности. Это попытка создать новый уровень доверия в цифровом пространстве, где границы между реальностью и генерацией всё чаще стираются. Подобные иниативы уже обсуждаются в других странах, но в России они приобретают специфический оттенок — в условиях, когда дезинформация может стать не только инструментом влияния, но и угрозой общественному согласию.
Упорядочение использования ИИ: технические и правовые вызовы
Ключевая идея, заложенная в инициативе Минцифры, — не столько ограничение ИИ, сколько упорядочение его использования. Если человек, публикуя текст, фото или видео, несёт за это ответственность, то ИИ-контент, по сути, лишён этой ответственности. Маркировка может стать первым шагом к её введению. Однако это не только техническая задача — она открывает сложные этические и правовые вопросы. Например, кто будет нести ответственность за ИИ-контент: сам ИИ, его разработчик, пользователь или платформа, на которой он размещён?
В этой связи становится очевидным, что маркировка может стать не только инструментом прозрачности, но и новым регуляторным рычагом. В долгосрочной перспективе это может повлиять на то, как будут работать алгоритмы рекомендаций, как будут формироваться позиции в поисковых системах и как будет оцениваться релевантность контента. Для бизнеса, особенно в медиа и рекламе, это означает необходимость пересмотра стратегий контент-маркетинга и проверки источников.
Баланс между контролем и развитием технологий
Важно отметить, что в Госдуме также обсуждается необходимость баланса между контролем и развитием отечественных ИИ-технологий. Председатель комитета по информационной политике Сергей Боярский подчеркнул, что нейросети, обучаясь на контенте крупных изданий, одновременно вытесняют профессиональных авторов. Это ставит под вопрос не только этичность использования данных, но и будущую модель контент-производства. В рамках этих дискуссий предлагаются ограничения, которые снизят риски, но не мешали бы развитию отечественных решений [!].
Решение о маркировке также связано с более широкими инициативами по регулированию ИИ. Минцифры совместно с Альянсом в сфере искусственного интеллекта разработало концепцию регулирования, в которой упоминаются термины «доверенные технологии» и «агентный ИИ». Документ подчеркивает необходимость гибкости и адаптивности законодательства, а также стремление заранее задать правила, чтобы снизить риски, связанные с универсальным ИИ [!].
Практические вызовы и энергетические последствия
На практике реализация маркировки сталкивается с рядом вызовов. Даже при наличии метки «сгенерировано ИИ» пользователь всё равно может воспринимать информацию как достоверную. Более того, маркировка может быть обойдена, если не будут ужесточены требования к алгоритмам идентификации. В этом смысле важным фактором станет развитие независимых систем проверки и стандартизация подходов к маркировке.
Особую актуальность эта тема приобретает на фоне роста энергопотребления центров обработки данных. К 2030 году потребление электроэнергии ЦОДов в России может вырасти в 2,5 раза. Развитие ИИ и цифровизации экономики стимулирует этот рост, что требует от государства оперативного реагирования на изменения инфраструктуры [!].
Источник: Интерфакс