Ноябрь 2025   |   Обзор события   | 6

OpenAI оспорит решение суда о передаче 20 млн чатов ChatGPT

Компания OpenAI подала апелляцию против решения суда, обязавшего предоставить 20 миллионов чатов пользователей ChatGPT в рамках судебного разбирательства с изданием The New York Times. В заявлении OpenAI указывается, что требование суда о передаче полных диалогов не связано с делом более чем на 99,99% и может угрожать конфиденциальности пользователей, поэтому компания просит отменить решение и рассмотреть предложенные способы фильтрации данных.

ИСХОДНЫЙ НАРРАТИВ

По данным Ars Technica, компания OpenAI подала апелляцию в суд, чтобы оспорить решение, обязывающее предоставить 20 миллионов пользовательских чатов ChatGPT в рамках судебного разбирательства с The New York Times и другими изданиями. Судья Она Ван в южном округе Нью-Йорка 7 ноября потребовала, чтобы OpenAI передала данные к 14 ноября 2025 года или в течение семи дней после завершения анонимизации.

OpenAI утверждает, что требование суда слишком широкое и может подорвать конфиденциальность пользователей. В материалах дела компания подчеркивает, что передача полных диалогов — а не отдельных запросов и ответов — несёт больший риск раскрытия личной информации. Это сравнение с прослушиванием полной беседы, а не отрывка. В заявлении отмечается, что более 99,99% данных не связаны с делом, и компания просит суд отменить решение и обязать истцов рассмотреть предложенные способы фильтрации.

The New York Times ответила, что её требования связаны с доказательством того, как OpenAI использовала защищённые авторским правом материалы для обучения модели. Издание утверждает, что суд уже установил защиту данных, и угроза конфиденциальности пользователей преувеличена. Сторона OpenAI настаивает, что её условия по поиску и фильтрации чатов были отклонены, хотя они могли бы снизить объём передаваемой информации.

OpenAI также ссылается на аналогичный случай в Калифорнии — дело Concord Music Group, Inc. v. Anthropic PBC, где судья Сьюзан ван Келен потребовала передачи 5 миллионов записей. Однако OpenAI утверждает, что в этом случае речь шла о отдельных запросах и ответах, а не о полных беседах, как в её деле. Компания не была допрошена по вопросу применимости этого решения, поскольку истцы не упомянули его в своём ходатайстве.

OpenAI планирует разработать «продвинутые меры безопасности» для защиты данных пользователей, включая шифрование на стороне клиента. В заявлении на сайте компании говорится, что The New York Times» требует получить данные, чтобы найти примеры обхода платной подписки. Это вызвало обеспокоенность среди пользователей, особенно после того, как чаты ChatGPT были найдены в результатах поиска Google.

The New York Times подчеркивает, что её иск направлен на привлечение к ответственности за использование защищённых материалов. В материалах дела от 30 октября издание обвинило OpenAI в нарушении предыдущих договорённостей и назвало предложенные меры компании недостаточными для полноценного анализа работы модели.

OpenAI настаивает, что её первоначальные запросы ограничивались чатами, связанными с материалами The New York Times, и компания работала над их выборкой. Однако позже истцы потребовали передачи всей 20-миллионной выборки, что, по мнению OpenAI, противоречит стандартной процедуре судебного разбирательства. Компания также отмечает, что данные хранятся в системе с юридическим ограничением, что исключает их использование вне судебного процесса.

Интересно: Какие механизмы защиты данных пользователей смогут противостоять растущему числу судебных требований к ИИ-компаниям, если тенденция к расширению масштаба предоставления информации сохранится?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда данные становятся доказательством: баланс между технологией и правом

Судебный спор между OpenAI и The New York Times выходит за рамки отдельного конфликта. Это ключевой момент, который может сформировать правовую базу для взаимодействия ИИ-компаний с государственными и частными структурами в будущем. На первый взгляд, речь идёт о защите конфиденциальности пользователей, но на деле в центре внимания — вопрос о том, кто контролирует данные, собранные ИИ-моделями, и как они могут быть использованы вне рамок первоначального согласия.

OpenAI подчёркивает, что передача 20 миллионов чатов включает не только отдельные запросы, но и полные диалоги. Это создаёт риск идентификации пользователей, даже если данные анонимизированы. В аналогии с прослушиванием разговора, а не отдельного фрагмента, компания демонстрирует, что полнота данных может быть опаснее, чем кажется. В ответ The New York Times настаивает, что именно такие данные нужны для доказательства факта использования защищённого авторским правом контента в обучении модели.

Конфликт интересов: данные как ресурс и как доказательство

OpenAI стремится ограничить объём передаваемой информации, чтобы снизить риски для пользователей. Однако её предложения по фильтрации и анонимизации были отклонены. Это указывает на разницу в восприятии масштаба угрозы: издание видит в данных возможность доказать нарушение прав, а ИИ-компания — риск для конфиденциальности.

Сложность ситуации возрастает из-за того, что данные пользователей, собранные в ходе взаимодействия с моделью, не всегда ясно регулируются законом. В случае с OpenAI, данные хранятся под юридическим ограничением, что, в теории, защищает их от неправомерного использования. Но суд, как независимый орган, имеет право требовать предоставления информации, если это необходимо для расследования.

Парадокс масштаба: чем больше данных — тем больше ответственности

В аналогичном деле в Калифорнии, где Anthropic должна была передать 5 миллионов записей, судья потребовала только отдельные запросы и ответы. OpenAI отмечает, что в её случае речь идёт о полных чатах, что делает ситуацию качественно иной. Это указывает на то, что правовые решения могут сильно различаться в зависимости от деталей, даже если технологии и модели похожи.

Такие различия создают неопределённость для ИИ-компаний. Если в одном случае суд требует минимальный объём данных, а в другом — максимальный, это затрудняет разработку единой стратегии защиты информации. В результате, компании вынуждены адаптироваться к каждому делу отдельно, что увеличивает юридические и операционные издержки.

Важный нюанс: Пока правовые нормы не уточнены, ИИ-компании находятся в ситуации, где защита пользователей конфликтует с требованиями юстиции. Решение в пользу одного из сторон может установить прецедент, который изменит правила игры для всей отрасли.

Российский контекст: как это может повлиять на локальные ИИ-проекты

Для российских ИИ-компаний и платформ, работающих с пользовательскими данными, этот случай демонстрирует важность прозрачности в сборе и хранении информации. В условиях, когда данные могут быть запрошены в рамках судебных разбирательств, особенно важно заранее предусмотреть механизмы анонимизации и фильтрации. Это не только снижает юридические риски, но и укрепляет доверие пользователей.

Кроме того, спор между OpenAI и The New York Times показывает, что вопросы авторского права и использования защищённого контента в обучении ИИ остаются актуальными. Российские разработчики, сталкивающиеся с похожими вызовами, должны учитывать, что их решения могут быть подвергнуты аналогичной проверке, особенно если речь идёт о международных пользователях или партнёрах.

Важный нюанс: Юридическая неопределённость вокруг использования данных в ИИ требует от компаний не только технических, но и стратегических решений. Умение заранее предвидеть, как данные могут быть использованы в будущем, становится ключевым элементом долгосрочной устойчивости.

Масштабные инвестиции и инфраструктурные вызовы

В условиях роста споров вокруг данных и их использования, ИИ-компании активно масштабируют инфраструктуру. Например, Nvidia вложила 100 млрд в развитие ИИ-инфраструктуры OpenAI, включая строительство новых центров обработки данных совместно с Oracle и SoftBank [!]. Эти инвестиции направлены на поддержку будущих версий ChatGPT и других моделей, что, в свою очередь, требует решения новых задач по защите и управлению данными.

Кроме того, OpenAI выступает ключевым партнёром AMD, с которой заключено соглашение на $100 млрд. Это сотрудничество укрепляет позиции AMD в сфере ИИ и стимулирует интерес других крупных клиентов к подобным партнёрствам. Развитие энергоэффективных чипов, таких как Instinct MI450, подчёркивает, что инфраструктурные решения становятся важной частью стратегии в области ИИ [!].

Риски и угрозы в киберпространстве

С увеличением масштаба ИИ-проектов растёт и количество угроз. Генеративный ИИ становится оружием киберпреступников, которые используют его для создания более убедительных фишинговых атак и манипуляций с данными [!]. В таких условиях защита пользовательских данных становится критически важной задачей. Утечки информации, вызванные атаками на ИИ, требуют внедрения многоуровневых мер, включая шифрование, контроль доступа и мониторинг [!].

Скрытые риски также связаны с несанкционированным использованием ИИ внутри компаний. Более 89% использования ИИ в организациях остаётся вне контроля ИТ- и безопасных команд. Платформы, такие как Lanai, позволяют отслеживать ИИ-активность в реальном времени, что помогает снизить риски утечек и нарушений норм [!].

Заключение

Судебный спор между OpenAI и The New York Times — это не только юридический конфликт, а важный этап в формировании правовой и технологической среды для ИИ. Он поднимает ключевые вопросы о защите данных, их использовании и ответственности разработчиков. Для российских ИИ-компаний этот случай служит напоминанием о том, что прозрачность, безопасность и стратегическое планирование становятся неотъемлемыми элементами устойчивого развития в быстро меняющейся отрасли.

Коротко о главном

Когда OpenAI должна была предоставить данные по первоначальному решению суда?

Судья Она Ван установила срок — 14 ноября 2025 года или в течение семи дней после завершения анонимизации данных, что стало поводом для подачи апелляции.

Почему OpenAI считает требование суда слишком широким?

Компания утверждает, что более 99,99% данных не связаны с делом, а передача полных диалогов, а не отдельных запросов, увеличивает риски утечки личной информации.

Что требует The New York Times в рамках судебного разбирательства?

Издание хочет доказать, как OpenAI использовала защищённые авторским правом материалы для обучения модели, и настаивает на получении полной выборки чатов.

Как OpenAI планирует защитить данные пользователей?

Компания заявила о разработке «продвинутых мер безопасности», включая шифрование на стороне клиента, чтобы минимизировать риски раскрытия личной информации при передаче данных.

Какое аналогичное судебное дело приводит OpenAI в поддержку своей позиции?

В деле Concord Music Group, Inc. v. Anthropic PBC судья потребовала передачи 5 миллионов записей, но, по мнению OpenAI, там речь шла о более ограниченных данных, чем в её случае.

Почему OpenAI считает требования The New York Times противоречивыми?

Компания утверждает, что изначально её запросы ограничивались чатами, связанными с материалами издания, а позже истцы потребовали всю 20-миллионную выборку, что, по мнению OpenAI, нарушает стандартные судебные процедуры.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Право и регулирование; Цифровизация и технологии

Оценка значимости: 6 из 10

Судебный спор между OpenAI и The New York Times касается вопросов использования защищённых авторским правом материалов для обучения ИИ, что затрагивает регулирование технологий и права на данные. Масштаб события — регионально-национальный за рубежом, но влияние на Россию косвенное, хотя может отразиться на подходе к регулированию ИИ в стране. Время воздействия — среднесрочное, так как дело находится в процессе, а решения суда могут установить прецедент. Сферы влияния — технологии, право, медиа. Последствия значимы, но не системные, поскольку затрагивают в первую очередь правовые и этические аспекты работы ИИ-компаний.

Материалы по теме

AMD ускоряет расширение в сфере ИИ и ведёт масштабные переговоры с крупными клиентами

Соглашение AMD и OpenAI на $100 млрд подчеркивает стратегическую значимость энергоэффективных чипов в развитии ИИ-инфраструктуры. Это усиливает довод о том, что инвестиции в оборудование становятся критичным элементом масштабирования ИИ, особенно при росте юридических и операционных издержек, связанных с защитой данных.

Подробнее →
Nvidia инвестирует 100 млрд в ИИ-инфраструктуру OpenAI

Инвестиции Nvidia в размере 100 млрд в ИИ-инфраструктуру OpenAI, включая совместное строительство центров обработки данных с Oracle и SoftBank, служат примером масштабных усилий, направленных на поддержку будущих версий ChatGPT. Эти вложения демонстрируют, как ИИ-компании готовятся к увеличению нагрузки, связанной с ростом споров и необходимости обработки больших объёмов данных.

Подробнее →
Генеративный ИИ становится оружием киберпреступников

Использование генеративного ИИ киберпреступниками для создания убедительных фишинговых атак и манипуляций с данными подчеркивает актуальность угроз, связанных с защитой информации. Это усиливает тезис о том, что утечки данных в результате ИИ-атак требуют внедрения многоуровневых мер безопасности.

Подробнее →
Киберпреступники используют ИИ для атак в 40 раз быстрее

Ускорение атак киберпреступников с применением ИИ в 40 раз по сравнению с традиционными методами демонстрирует, как быстро растёт опасность для инфраструктуры, включая ИИ-системы. Это усиливает аргумент о необходимости шифрования, контроля доступа и мониторинга как ключевых компонентов защиты данных.

Подробнее →
Скрытый ИИ в компаниях: риски и как их обнаружить

Факт, что более 89% использования ИИ в организациях остаётся вне контроля ИТ- и безопасностных команд, подкрепляет идею о рисках несанкционированного использования ИИ внутри компаний. Это подчеркивает важность внедрения инструментов вроде платформы Lanai для отслеживания ИИ-активности в реальном времени.

Подробнее →