суббота, 28 февраля 2026 г.

Когда чаты c ИИ-чатботом становятся доказательством: Американский суд подтвердил постановление, обязывающее компанию OpenAI представить выборку обезличенных логов ChatGPT (1)

Данная заметка Ромы Патель (Roma Patel – на фото) из юридической фирмы Robinson+Cole была опубликована 15 января 2026 года в социальной сети LinkedIn.

5 января 2026 года федеральный окружной суд США по Южному судебному округу Нью-Йорка подтвердил два судебных постановления о раскрытии информации, обязывающих компанию OpenAI предоставить выборку, содержащую 20 миллионов обезличенных логов пользователей ИИ-модели (чатбота) ChatGPT в рамках масштабного судебного разбирательства по авторским правам, инициированного новостными организациями и представляющими коллективный иск истцами. Это решение позволяет увидеть важные аспекты того, как федеральные суды в настоящее время подходят к ситуациям, когда пересекаются вопросы раскрытия информации, зашиты неприкосновенности частной жизни пользователей и релевантности данных, связанных с большими языковыми моделями.

Фактическая и процессуальная предыстория

Истцы добивались раскрытия логов (протоколов), отражающих диалоги пользователей с ИИ-чатботом ChatGPT, включая как подсказки, так и результаты работы модели. Компания OpenAI, которая в рамках своей повседневной деятельности хранит десятки миллиардов таких логов, возражала против поданного в июле 2025 года ходатайства истцов потребовать от компании представления выборки из 120 миллионов протоколов. Взамен OpenAI предложила выборку меньшего объёма - 20 миллионов обезличенных диалогов, указав, что удалит из выборки персональные данные и иную конфиденциальную информацию с помощью специального инструмента обезличивания. Истцы согласились на эту меньшую выборку, оставив за собой право потребовать представления выборки большего объёма, если это будет оправдано.

В октябре 2025 года компания OpenAI изменила свою позицию, предложив выполнить поиск по 20 миллионам логов и представить только те диалоги, которые непосредственно касались принадлежащих истцам работ. Компания OpenAI утверждала, что такой подход лучше защитит персональные данные пользователей ChatGPT. На следующий день истцы отреагировали подачей нового ходатайства об обязании ChatGPT представить всю обезличенную выборку из 20 миллионов логов, а не только её отфильтрованную часть.

7 ноября 2025 года судья-магистрат (фактически, помощник федерального судьи – Н.Х.) Ван (Wang) удовлетворил ходатайство истцов и распорядился представить полную обезличенную выборку из 20 миллионов логов. Ходатайство OpenAI о пересмотре этого решения было отклонено. Суд пришел к выводу о том, что полная выборка логов, включающая как релевантные, так и, казалось бы, не имеющие отношения к претензиям истцов диалоги, необходима для проведения полного анализа, отметив, что даже логы, не имеющие прямого отношения к контенту истцов, могут оказаться релевантными в отношении представленных OpenAI аргументов защиты на основании принципа добросовестного использования (fair use). Судья Ван также оценил соображения, связанные с защитой персональных данных, и определил, что на эти опасения последовало достаточное реагирование посредством использования трёх основных мер защиты: 

  • сокращение объёма раскрываемых данных с десятков миллиардов до 20 миллионов логов; 

  • обезличивание; и 

  • охранный судебный приказ (standing protective order), регламентирующий использование процедуры раскрытия информации в рамках дела.

Анализ, сделанный окружным судом

Компания OpenAI опротестовала распоряжений судьи-магистрата Вана, утверждая, что в них неадекватно были учтены интересы защиты неприкосновенности частной жизни (персональных данных), и что суду следовало принять предложенный компанией менее обременительный метод представления информации. Рассмотрев возражения, судья окружного суда Штайн (Stein) подтвердил оба распоряжения о раскрытии информации.

Ключевые выводы из судебного распоряжения от 6 января 2026 года включают следующее:

  • Баланс между релевантностью и неприкосновенностью частной жизни: Окружной суд установил, что судья-магистрат Ван адекватно сбалансировал потребности защиты персональных данных пользователей с потребностями в раскрытии информации. В частности, сокращение размера выборки, использование деидентификации (обезличивания) и выдача охранного судебного приказа достаточны для решения проблем защиты персональных данных в контексте данного судебного разбирательства;

  • Отсутствие требования об использовании наименее обременительного варианта раскрытия информации: Окружной суд отклонил аргумент компании OpenAI о том, что судья-магистрат Ван был обязан распорядиться об использовании «наименее обременительных» способов представления информации, таких как представление только отфильтрованных результатов поиска. Обращает на себя внимание то, что окружной суд подчеркнул, что ни один применимый прецедент не требует применения такого стандарта в данных обстоятельствах;

  • Отличие от дела «SEC против Раджаратнама»: Компания OpenAI в первую очередь опиралась как на прецедент на дело «Комиссия США по ценным бумагам и биржам (Securities and Exchange Commission, SEC) против Раджаратнама (Rajaratnam)», 622 F.3d 159 (2d. Cir. 2010), см. также Википедию, https://en.wikipedia.org/wiki/SEC_v._Rajaratnam - Н.Х., чтобы обосновать необходимость более сильной защиты неприкосновенности частной жизни. Окружной суд указал на различие между данным делом и делом Раджаратнама, отметив, что последнее касалось тайной сделанных и потенциально незаконных записей прослушивания и в гораздо большей степени затрагивало интересы в отношении неприкосновенности частной жизни. В отличие от этого, пользователи ChatGPT добровольно предоставляли свои данные компании OpenAI в рамках обычного повседневного использования платформы, и законность хранения логов компанией OpenAI в данном случае не вызывает сомнений; и

  • Релевантность помимо вопросов прямого нарушения авторских прав: Повторяя выводы судьи Вана, окружной суд отметил, что даже те логи, в которых речь не идёт о воспроизведении работ, права на которые принадлежат истцам, могут помочь компании OpenAI подтвердить такие аргументы её защиты, как добросовестное использование, - и, следовательно, они являются «релевантными для данного дела» в соответствии с действующим стандартом, регламентирующим раскрытие информации.

(Окончание следует)

Рома Патель (Roma Patel)

Источники: сайт JDSupra  / блог фирмы Robinson+Cole
https://www.jdsupra.com/legalnews/when-chats-become-evidence-court-7484440/ 
https://www.dataprivacyandsecurityinsider.com/2026/01/when-chats-become-evidence-court-affirms-order-requiring-openai-to-produce-20-million-de-identified-chatgpt-logs/ 

Комментариев нет:

Отправить комментарий