800 деятелей культуры США требуют контроль за использованием данных в ИИ
Более 800 представителей сферы искусства и культуры в США выступили с инициативой «Украденное не является инновацией», требуя регулирования использования творческих данных в обучении ИИ-моделей. Они критикуют практику масштабного извлечения контента без согласия авторов, подчеркивая, что это может повысить риск распространения фейков и снизить позиции США в гонке за лидерство в ИИ.
Рост интереса к регулированию использования данных в ИИ-моделях
По данным IT Home, в США наблюдается рост внимания к вопросам, связанным с использованием цифровых активов в процессах обучения ИИ. В числе ключевых событий — инициатива, объединившая более 800 представителей сферы искусства и культуры, включая литераторов, актёров и музыкантов. Их совместное заявление направлено на защиту прав на цифровые творческие произведения, которые, как утверждается, используются без разрешения и оплаты.
Инициатива под названием «Украденное не является инновацией» выступает с критикой текущих практик в области обучения генеративных ИИ-моделей. В заявлении отмечается, что в ходе борьбы за доминирование в этой сфере, некоторые технологические компании без согласия владельцев масштабно извлекают и копируют творческие произведения из интернета.
Участники акции подчеркивают, что такой подход может спровоцировать рост распространения фейковой информации, дипфейков и низкокачественного контента, создаваемого ИИ. Это, в свою очередь, может повлиять на надёжность ИИ-моделей и их способность корректно обрабатывать данные. Также отмечается, что подобные практики могут снизить позиции США в глобальной гонке за лидерство в ИИ.
Поддержку инициативы оказывает организация «Человеческая творческая инициатива», в которую входят американская ассоциация звукозаписывающих компаний, профессиональные спортивные лиги и профсоюз актёров и телевизионных артистов. Дальнейшее распространение идей будет осуществляться через рекламные кампании в СМИ и активность в социальных сетях.
Ключевые требования участников
- Введение механизмов, позволяющих авторам устанавливать условия использования своих работ в ИИ;
- Создание эффективной системы контроля и правоприменения;
- Разработку единых стандартов авторизации для ИИ-моделей, чтобы гарантировать защиту прав владельцев контента.
Политическая атака на регулирование ИИ также наблюдается на фоне усилий американской администрации, которая, как сообщается, стремится ограничить возможности отдельных штатов в вопросах регулирования ИИ. Это может повлиять на формирование единых правил в этой сфере на федеральном уровне.
Сдвиг в отношениях между технологическими компаниями и правообладателями уже заметен. Так, основные музыкальные лейблы договорились с разработчиками ИИ-музыки, позволяя использовать их архивы для обучения моделей. Некоторые медиакомпании, ранее подававшие иски против ИИ-фирм, теперь выступают за единые стандарты авторизации, чтобы контролировать, как их материалы используются ИИ-системами. Дополнительно отмечается, что отдельные СМИ заключили договоры с технологическими компаниями, разрешающие ограниченное использование их контента в чат-ботах и ИИ-ассистентах.
Таким образом, на рынке формируется новая модель взаимодействия, где технологии и права на контент начинают находить общий язык.
Когда авторы становятся участниками процесса: новая экономика ИИ
Переключение ролей в цифровой экосистеме
Рано или поздно творческие произведения перестают быть просто продуктами искусства — они становятся ресурсом, который востребован в обучении ИИ. В этом контексте авторы, музыканты, писатели и другие творческие личности не просто создают контент, они становятся его поставщиками, участвующими в формировании алгоритмов. Это смещение ролей меняет экономику отрасли, создавая новые зависимости, которые начинают влиять на баланс сил между технологическими компаниями и правообладателями.
Инициатива «Украденное не является инновацией» в США — лишь один из многих сигналов, что авторы начинают осознавать ценность своих данных. Их требования — не просто моральные, но экономические. Они хотят не только защиты своих прав, но и участия в процессе, где их творчество используется для обучения моделей. Это похоже на переход от ситуации, где фермеры выращивают урожай, но не получают доли от его продажи, к модели, где они становятся партнерами в цепочке создания стоимости.

Правовые и экономические последствия
В последние месяцы судебные решения и иски демонстрируют, что юридическая база для регулирования ИИ начинает формироваться. Например, немецкий суд обязал OpenAI выплатить компенсацию за использование музыки в ChatGPT [!]. Это первый крупный европейский прецедент, который может стать ориентиром для будущих споров. В Японии, где OpenAI модифицировала модель Sora 2 после давления властей и индустрии, также наблюдалась аналогичная тенденция [!].
В США, Disney требует ограничить ИИ-инструменты Google, чтобы исключить возможность генерации контента с зарегистрированными персонажами [!]. Это указывает на то, что крупные медиакомпании уже начали применять стратегии, которые ранее были ограничены только исками. Они переходят от противостояния к сотрудничеству, заключая соглашения с ИИ-генераторами. Например, лейблы Warner Music Group и Universal Music Group договорились с Suno и Udio, чтобы легализовать использование голосов и стилей артистов [!].
Риски и возможности для ИИ
Однако новые правила несут в себе и риски. Если ИИ-модели смогут обучаться только на отфильтрованных или оплаченных данных, это может снизить разнообразие и глубину их знаний. В ходе эксперимента с генеративным ИИ, например, Gemini Google выдала ложную информацию о забастовке в Квебеке, что показывает, насколько недостоверным может быть контент, созданный на основе непроверенных данных [!].
Кроме того, Cloudflare заблокировала более 416 миллиардов запросов от ИИ-ботов Google, чтобы защитить контент клиентов от бесплатного сбора данных [!]. Это указывает на рост споров вокруг справедливости использования контента и необходимость поиска модели, где ИИ-компании платят за данные, а не используют их бесплатно.
Глобальная тенденция к регулированию
Схожие процессы происходят и в других странах. В Китае введены строгие правила для ИИ, обязывающие компании использовать только безопасные данные и маркировать созданный контент [!]. В Дании, где власти готовят законопроект, запрещающий дипфейки без согласия, граждане получат авторские права на собственное изображение [!]. В Европе Еврокомиссия расследует Google, чтобы выяснить, не использует ли компания контент без компенсации [!].
Эти меры направлены не только на защиту прав авторов, но и на обеспечение прозрачности и безопасности использования ИИ. Википедия, например, заключила соглашения с крупными технологическими компаниями, чтобы привлечь коммерческие источники финансирования и снизить нагрузку на серверы от бесплатного доступа к данным [!].
Влияние на бизнес и стратегии
Для бизнеса, работающего с контентом, ключевым становится прозрачность использования данных. Если контент используется для обучения ИИ, необходимо чётко определить, как это влияет на авторские права и коммерческие возможности. Это особенно актуально для медиа, музыки и издательского дела, где авторы уже начали осознавать ценность своих данных.
В условиях роста сложности управления рисками из-за ИИ, руководители по информационной безопасности отмечают необходимость адаптации процессов и инструментов для оценки угроз, исходящих от сторонних партнёров [!]. ИИ-инструменты могут помочь в этом, но пока лишь немногие компании разработали комплексные планы реагирования.
Заключение
Авторы перестают быть пассивными поставщиками данных — они становятся участниками процесса обучения ИИ. Это меняет не только экономику, но и баланс сил в цифровой экосистеме. Юридические прецеденты, новые соглашения и глобальные инициативы показывают, что тенденция к регулированию уже необратима. Для бизнеса важно не только учитывать эти изменения, но и готовиться к их последствиям, чтобы сохранить конкурентоспособность и прозрачность в условиях роста требований к ИИ.
Источник: IT Home