Anthropic готовит историческую выплату за ИИ и пиратские данные
Американская компания Anthropic договорилась о выплате не менее 1,5 млрд долларов праводержателям в рамках урегулирования иска, связанного с использованием пиратских материалов при обучении генеративных моделей ИИ. Суд потребовал уточнения ключевых элементов соглашения, включая список произведений, участников классового иска и процедуру подачи претензий, и отложил предварительное утверждение до 25 сентября.
По данным иностранных источников, американская компания Anthropic договорилась о выплате не менее 1,5 млрд долларов праводержателям в рамках урегулирования иска, связанного с использованием пиратских материалов при обучении генеративных моделей ИИ. Суд еще не одобрил соглашение, потребовав уточнения ряда ключевых элементов.
Согласно поданным в суд документам, иск предполагает выплату около 3000 долларов за каждый защищаемый авторский труд. Если соглашение будет одобрено, это станет крупнейшим в истории США пошлиной по делу о нарушении авторских прав. Однако решение о предварительном утверждении отложено до 25 сентября.
Суд выразил обеспокоенность тем, что ключевые аспекты, включая список произведений, список участников классового иска, форму заявки и процедуру подачи претензий, остаются недостаточно уточненными. В частности, возникли вопросы, как будут учитываться права при наличии нескольких претендентов на одно произведение.
Угол зрения: возможное влияние на стоимость ИИ
Специалисты опасаются, что аналогичные случаи в будущем могут привести к росту лицензионных платежей за использование ИИ. Barry Scannell из ирландской юридической компании William Fry отмечает, что размер выплаты в 3000 долларов за произведение может стать ориентиром для лицензирования. Это, по его мнению, заставит компании ИИ переходить от неструктурированного подхода к сбору данных к четким лицензионным соглашениям.
КИО крупного университетского центра в Сент-Луисе, Zachary Lewis, подчеркивает, что исключением из соглашения споры, связанные с выводом ИИ, он видит потенциальный риск. «Если в будущем такие вопросы будут рассматриваться, использование генеративного ИИ станет слишком рискованным без гарантий по источникам данных», — отмечает он.
Кто выигрывает от соглашения
Некоторые эксперты считают, что компания Anthropic вышла из ситуации с минимальными потерями. Kevin Hall, КИО кредитного союза Westconsin, отмечает, что предшествующие судебные решения уже устанавливали, что обучение моделей на законно приобретенных книгах является законным. «Это соглашение устраняет один из потенциальных барьеров для развития ИИ», — говорит он.
Jason Andersen из Moor Insights & Strategy считает, что выплата авторам — это позитивный шаг, но само соглашение не затрагивает вопрос о законности использования данных в принципе. «Это касается только пиратских материалов, которые не могли считаться законными. Суд не поставил под сомнение предыдущие решения о законности использования данных», — поясняет он.
Прозрачность данных: проблема для бизнеса
Одной из ключевых проблем для корпоративных пользователей ИИ остается отсутствие прозрачности в источниках данных, на которых обучены модели. Многие ИТ-директора требуют от поставщиков раскрытия информации о происхождении данных, чтобы оценить их качество и соответствие лицензионным требованиям.
Однако юридические департаменты часто выступают за сохранение конфиденциальности. Они аргументируют это тем, что отсутствие информации о данных позволяет избежать обвинений в сговоре или умышленном использовании нелегальных материалов.
Данные показывают, что крупные судебные иски могут существенно влиять на экономику ИИ. Вопрос не только в выплатах, но и в формировании новых правил использования данных. Как это повлияет на стоимость лицензий, сроки разработки моделей и уровень доверия со стороны бизнеса — остается под вопросом.
Пересмотр экономической модели ИИ
Судебный иск против компании Anthropic стал поворотным моментом в вопросе использования нелегальных данных для обучения ИИ. В рамках урегулирования стороны заключили соглашение, согласно которому компания выплатит 1,5 млрд долларов в качестве компенсации. Это исторически крупнейшее по масштабу урегулирование по авторским правам в сфере искусственного интеллекта. В рамках соглашения Anthropic обязана уничтожить спорные наборы данных и выплатить около 3 тыс. долларов за каждый нарушённый труд.
Это решение не ставит под сомнение общий принцип обучения ИИ на законно приобретённых данных, но устанавливает важный прецедент — компенсация за использование пиратских материалов. Такой подход может стать основой для формирования новой экономической модели в сфере ИИ, где затраты на обучение будут зависеть от юридических норм и доступности легальных источников данных. Особенно это критично для компаний, которые используют большие объёмы неструктурированных данных. В такой ситуации бизнесу придётся пересматривать стратегии сбора и использования данных, акцентируя внимание на лицензированных источниках.
Ключевая идея: Судебные иски могут стать катализатором для формирования более прозрачной и регулируемой экономики ИИ, где стоимость обучения моделей будет зависеть от юридических норм и доступности легальных источников данных.
Баланс между инновациями и правами
Судебная практика в США демонстрирует стремление к защите авторских прав в условиях цифровой трансформации. Однако в данном случае суд не ставит под сомнение ранее установленные нормы, согласно которым обучение моделей на законно приобретённых материалах не нарушает права. Это важно, так как позволяет компаниям продолжать развитие технологий без риска массовых исков.
Однако соглашение может создать дополнительные барьеры для небольших и средних игроков рынка ИИ, которые не обладают ресурсами крупных корпораций для выплат компенсаций. Это может привести к консолидации рынка в пользу крупных игроков, способных поглощать высокие юридические издержки. В свою очередь, это снижает конкурентоспособность новых решений и ограничивает инновационный потенциал.
Схожие процессы уже наблюдаются в других сегментах ИИ. Например, Warner Bros., Disney и Universal подали коллективные иски против Midjourney за генерацию изображений с известными персонажами без разрешений. Компании требуют компенсации ущерба и прекращения деятельности, нарушающей авторские права. Midjourney отрицает нарушения, ссылаясь на доктрину «честное использование» в американском законодательстве. Эти процессы могут повлиять на формирование правовой базы в области интеллектуальной собственности и применения ИИ.
Главный вывод: Рост юридических издержек может усилить доминирование крупных компаний в сфере ИИ, что создает вызовы для развития отечественных технологий и требует государственной поддержки стартапов.
Прозрачность как стратегическая задача
Одной из ключевых проблем для бизнеса остается отсутствие прозрачности в источниках данных, на которых обучены модели ИИ. Это затрудняет оценку их качества и соответствие лицензионным требованиям. В условиях роста регулирования и увеличения судебных исков, корпоративные пользователи ИИ требуют от поставщиков раскрытия информации о происхождении данных.
Однако юридические департаменты крупных компаний часто выступают за сохранение конфиденциальности источников, чтобы избежать обвинений в сговоре или умышленном использовании нелегальных материалов. Это создает внутренние противоречия между интересами разработчиков и юристов, что может замедлить внедрение ИИ-решений в критически важных секторах экономики.
Практическое значение: Увеличение прозрачности источников данных может стать ключевым фактором доверия со стороны бизнеса, но требует баланса между юридическими рисками и технологическими возможностями.
Риски и вызовы для отрасли
Среди экспертов растёт беспокойство относительно устойчивости бизнес-моделей в сфере искусственного интеллекта. Недостаточно продуманные подходы к монетизации и масштабированию создают риски для инвестиций и стабильности отрасли. Мелкие компании особенно уязвимы, так как могут быть поглощены, объединены или прекратить деятельность. Для снижения рисков рекомендуют использовать крупных поставщиков, развивать собственные решения и оценивать зависимость от внешних моделей.
Важно учитывать и внешние угрозы, связанные с кибербезопасностью. Преступники активно внедряют искусственный интеллект в свои операции, используя его на всех этапах кибератак. Злоумышленники применяют ИИ для автоматизации задач, таких как сканирование сетей, кража данных и создание вредоносного ПО. Это позволяет им проводить атаки быстрее и эффективнее. В результате, ИИ снижает порог вхождения в киберпреступность, делая её более масштабируемой и прибыльной.
Важно: Развитие ИИ требует не только технологического прогресса, но и стратегического подхода к юридическим, экономическим и кибербезопасностным аспектам.