понедельник, 2 марта 2026 г.

Суды смогут получать сведения из Единого государственного реестра записей актов гражданского состояния

Федеральный закон от 11 февраля 2026 г. №22-ФЗ «О внесении изменений в статью 13.2 Федерального закона «Об актах гражданского состояния» включил суды в перечень органов, уполномоченных на получение сведений из Единого государственного реестра записей актов гражданского состояния (ЕГР ЗАГС) по запросу в электронном виде.

Для справки: Согласно статьи 13.2 «Предоставление сведений, содержащихся в Едином государственном реестре записей актов гражданского состояния» федерального закона от 15 ноября 1997 года №143-ФЗ «Об актах гражданского состояния», сведения, содержащиеся в реестре, предоставляются по запросам:

  • Оператором федеральной государственной информационной системы ведения ЕГР ЗАГС - в электронном виде посредством единой системы межведомственного электронного взаимодействия;

  • Органами записи актов гражданского состояния - на бумажном носителе.

В пояснительной записке к законопроекту отмечалось, что на тот момент в соответствии с положениями ст. 13.2 суды (судьи) были наделены правом на получение от органов ЗАГС по запросам сведений о государственной регистрации актов гражданского состояния только на бумажном носителе.

Авторы законопроекта предложили предоставить судьям право на запрос и получение сведений из ЕГР ЗАГС в электронном виде, что, по их мнению, «существенно сократит сроки получения необходимой для рассмотрения судами дел информации».

Теперь «сведения о государственной регистрации акта гражданского состояния, содержащиеся в Едином государственном реестре записей актов гражданского состояния, предоставляются в рамках межведомственного взаимодействия в суды (судьям) в части сведений, необходимых для осуществления правосудия, обеспечения мер социальной защиты судей и членов их семей» (п.2 ст.13.2)

При этом сохранено право судов на направления «бумажного» запроса в орган ЗАГС в целях уточнения противоречивых данных (п.3 ст. 13.2)):

3. … В порядке, предусмотренном настоящим пунктом, сведения по запросу суда (судьи) сообщаются в целях уточнения сведений, полученных из Единого государственного реестра записей актов гражданского состояния по запросу в соответствии с пунктом 2 настоящей статьи, либо в целях получения сведений, которые не могут быть получены в рамках межведомственного электронного взаимодействия.

Федеральный закон вступил в силу с 11 февраля 2026 года 

Мой комментарий: Законодатель сохранил возможность «бумажного» запроса для двух случаев:

  • Если в полученных из единого реестра данных обнаружатся противоречия, и суду нужен официальный ответ-уточнение (заверенный гербовой печатью);

  • Если технически невозможно получить данные через СМЭВ (например, из-за сбоев или отсутствия технической возможности запросить специфические архивы).

Основной объём сведений суды будут теперь получать в электронном виде.

Источник: Консультант Плюс
https://www.consultant.ru/cons/cgi/online.cgi?req=doc;base=PRJ;n=259704
https://www.consultant.ru/cons/cgi/online.cgi?req=doc;base=LAW;n=526351


воскресенье, 1 марта 2026 г.

Когда чаты c ИИ-чатботом становятся доказательством: Американский суд подтвердил постановление, обязывающее компанию OpenAI представить выборку обезличенных логов ChatGPT (2)

(Окончание, начало см. http://rusrim.blogspot.com/2026/02/c-openai-chatgpt-1.html )

Последствия для организаций: Правовые аспекты и аспекты стратегического управления

Из постановления суда следует ряд практических выводов для организаций:

  • Раскрытие обезличенных (деидентифицированных) данных пользователей: Даже если данные представляются в обезличенной форме и подлежат защите в соответствии с охранным судебным приказом, суды всё равно могут потребовать предоставления данных в больших масштабах, если набор данных является релевантным и раскрытие - соразмерным. При управление рисками для персональных данных при взаимодействии с ИИ следует исходить из того, что обезличивание является способом снижению риска, но не гарантией. Кроме того, положения охранного судебного приказа и меры управления доступом могут стать столь же важными, как и используемый метод цензурирования;

  • Адекватность мер защиты: В данном случае был упомянут целый мер контроля и управления: сокращение объема данных (с десятков миллиардов до 20 миллионов логов), проведенное компанией OpenAI обезличивание данных и наличие охранного судебного приказа. Организациям следует ожидать, что вопрос о «мерах защиты» будет зависеть от конкретных обстоятельств и будет носить кумулятивный характер. Например, если поставщик не в состоянии описать свой рабочий процесс обезличивания или не может реализовать на практике ограничения доступа и возможность аудита для больших текстовых наборов данных, то суд может быть менее восприимчив к возражениям, связанным с защитой персональных данных, чем в ситуации, когда эти меры контроля и управления являются зрелыми и доказуемыми;

  • Релевантность не ограничивается вопросом «копирования чужих работ»: Суд признал, что логи, «не связанные непосредственно» с работами, на которые у истцов имеются права, всё еще могут быть релевантными, в том числе и в плане оценки аргументов компании OpenAI о добросовестном использовании. Это подразумевает то, что в ситуациях, когда защита стороны основывается на том, как система ведет себя во многих взаимодействиях, может увеличиться возможность добиться раскрытия «не нарушающих авторские права» примеров. Организациям следует ожидать, что позиции, занятые в судебном процессе в плане защиты (а не только предъявления требований), могут повлиять на то, какой объем данных становится доступным для раскрытия, и какие методы формирования выборки будут приняты судом;

  • Отсутствие абсолютного права на «минимально инвазивное / обременительное» раскрытие информации: Суд постановил, что компания OpenAI не выявила прецедентного права, требующего от суда распорядиться о наименее обременительном раскрытии информации; а также не смогла конкретно объяснить, почему она отклонила альтернативное предложение о раскрытии информации другой стороны, - и поддержал решение судьи-магистрата Вана, требующее представления обезличенной выборки полностью. Для организаций подход «мы проведём поиск и предоставим вам результаты» можно охарактеризовать не только как способ снижение бремени, но и как перераспределение контроля. Когда одна сторона контролирует инструменты, индексирование и логику сопоставления, другая сторона может утверждать, что не в состоянии проверить полноту данных или протестировать альтернативные гипотезы. Это судебное решение предполагает, что суды могут отдавать предпочтение подходам, которые сохраняют возможность запрашивающей стороны анализировать набор данных, при условии, что обеспечены соразмерность раскрытия и меры защиты персональных данных;

  • Практики поставщиков и платформ в отношении данных (в договорах следует учитывать практику раскрытия информации, а не только «статические» меры зашиты персональных данных): Решение отражает тот факт, что компания OpenAI хранила «десятки миллиардов» логов чатов в рамках обычной повседневной деловой деятельности, и что эти логи стали центральным объектом раскрытия информации. Организациям следует сфокусировать внимание на разумных мерах осмотрительности в отношении поставщиков. В договорах следует учитывать реалии раскрытия информации, включая то, что именно хранится, в течение каких сроков, с использованием каких механизмов управления, а также какие механизмы существуют для поддержки деидентификации и контролируемого представления данных, если это потребуется сделать в ходе судебного разбирательства. Договор, который умалчивает об этих аспектах, может ограничить возможности клиентов в случае, если журналы аудита (логи) поставщика будут охвачены процессом раскрытия;

  • Демонстрация рисков судебных разбирательств при использовании ИИ: Судья Ван учитывал «подлинные» интересы пользователей в отношении защиты их персональных данных как один из факторов при оценке соразмерности раскрытия информации, - но все же счел представление информации уместным с учетом имеющихся защитных мер. Для организаций это напоминание о том, что ожидания пользователей в отношении защиты их персональных данных хотя и имеют значение, но они не обязательно препятствуют раскрытию информации в рамках гражданского процесса. Это особенно важно для сотрудников, использующих ориентированные на потребителя инструменты для выполнения связанных с их работой задач, когда организация может не иметь возможности контролировать настройки сроков хранения и даже не знать, что было какая информация была предоставлена инструменту; и

  • Важность всестороннего стратегического управления ИИ: Поскольку этот судебный спор касается «дискуссий (чатов)», определяемых как сочетание подсказок и результатов, организациям следует рассматривать подобные данные ИИ как категорию потенциально подлежащих раскрытию документов, и соответствующим образом выстраивать стратегическое управление ими. Это может означать инвентаризацию существующих данных о взаимодействии пользователей с ИИ, уточнение допустимых и запрещенных типов данных, внедрение технических мер и средств контроля и управления для уменьшения объема конфиденциальных входных данных, наложение/снятие временных запретов на уничтожение в связи с судебными разбирательствами и координацию с поставщиками.

Постановление от 5 января 2026 года служит напоминанием о том, что в судебных разбирательствах, связанных с ИИ, протоколы взаимодействия (логи) могут играть ключевую роль. Суды могут быть готовы обязать стороны представить очень большие массивы данных, если релевантность трактуется достаточно широко для того, чтобы включать релевантность для обоснования таких аргументов защиты, как добросовестное использование, - и если отбор, обезличивание и охранные судебные приказы могут быть представлены как действенные меры защиты персональных данных. Для организаций наиболее важным уроком является не просто идея о том, что «надо быть осторожным с тем, что вы вводите в ИИ», а то, что стратегическое управление ИИ теперь включает в себя позицию организации в отношении раскрытия информации: что именно сохраняется, что может быть представлено, кто контролирует инструменты и какие меры защиты действительно работают в соответствующих масштабах.

Рома Патель (Roma Patel)

Источники: сайт JDSupra  / блог фирмы Robinson+Cole
https://www.jdsupra.com/legalnews/when-chats-become-evidence-court-7484440/ 
https://www.dataprivacyandsecurityinsider.com/2026/01/when-chats-become-evidence-court-affirms-order-requiring-openai-to-produce-20-million-de-identified-chatgpt-logs/ 

Арбитражная практика: Использование ИИ не может быть поводом для снижения гарантий для граждан или какого-либо ухудшения их положения

Арбитражный суд Волгоградской области в июле 2025 года рассмотрел дело №А12-8377/2025, в котором общество ООО «Дегустаторстрой» просило признать частично недействительным ненормативный правовой акт Межрайонной инспекции Федеральной налоговой службы №2 по Волгоградской области. 

Двенадцатый арбитражный апелляционный суд при рассмотрении дела в декабре 2025 года дал оценку некоторым доводам участников спора, и в том числе высказался по поводу использования искусственного интеллекта (ИИ) налоговой службой.

Суть спора

Общество ООО «Дегустаторстрой» обратилось в Арбитражный суд Волгоградской
области с заявлением, в котором просило:

  • Признать недействительным требование инспекции ФНС в части пени, начисленной за период с 28.07.2020 г. по 19.12.2024 г. включительно, на сумму более 926 тыс. рублей;

  • Обязать инспекцию устранить допущенные нарушения прав и законных интересов общества, возвратить на единый налоговый счет (ЕНС) общества пени.

В обоснование своей позиции общество указало, что оспариваемое требование было выставлено повторно, поскольку пени уже были начислены на сумму недоимки по налогам, указанную в требовании №14115 от 27.11.2024.

Решением Арбитражного суда Волгоградской области в августе 2025 года в удовлетворении заявленных требований было отказано.

Позиция Двенадцатого арбитражного апелляционного суда


Двенадцатый арбитражный апелляционный суд рассмотрел дело в декабре 2025 года, признал решение суда первой инстанции законным, однако счел необходимым дать оценку некоторым доводам участников спора.

Суд отметил, что представитель налогового органа сделал в ходе дачи пояснений при рассмотрении спора в суде апелляционной инстанции несколько заявлений, демонстрирующих неправильное понимание положений налогового законодательства и своих процессуальных обязанностей.

Представитель инспекции настаивал на том, что пеня - это штрафная санкция. Апелляционный суд обратил внимание налогового органа на неправильное понимание природы данного вида неустойки, которая носит компенсационный характер.

Также представитель инспекции утверждал, что Налоговый кодекс РФ не предусматривает предоставление расчета сумм пени, и, соответственно, у налогового органа нет такой обязанности. В подтверждение данного утверждения представитель ФНС ссылался на то обстоятельство, что сами доначисления производятся автоматически информационной системой и другим территориальным подразделением налоговой службы, а с введением единого налогового счета отпала даже необходимость указывать в актах налогового органа суммы пени.

Суд подчеркнул, что позиция налогового органа относительно данного вопроса ошибочна и противоречит декларируемым подходам ФНС РФ к добросовестному администрированию и требованиям действующих законов, поскольку правила добросовестного администрирования и распределение обязанности доказывания в процессе требуют, чтобы действия и акты налогового органа вызывали доверие, а это предполагает, что они доступны для понимания и обоснованы. При возникновении спора любые начисления спорных сумм подлежат проверке, и сделать их доступными и понятными для этих целей - обязанность именно налогового органа (ст. 65 и ч. 5 ст. 200 АПК РФ).

Суд также обратил внимание на то, что налоговый орган является единым ведомством, и то, как организационно распределены функции внутри него между его структурными подразделениями, не меняет процессуальных обязанностей обосновать перед судом правильность произведенных начислений тем подразделением, которое выступает стороной спора.

По мнению суда, использование для расчетов начислений искусственного «интеллекта» (далее - ИИ) не является основанием презюмировать правильность произведенных расчетов и не снимает с налогового органа ответственность за полученный результат.

Суд признал, что внедрение ИИ - свершившийся и необратимый факт, но считает, что использование ИИ не может служить поводом для снижения гарантий для граждан или какого-либо ухудшения их положения.

Изложенная суду позиция налогового органа строится на том, что имеет место полная автоматизация процесса расчетов начислений, который не должен подвергаться проверке, поскольку фактически недоступен пониманию.

Апелляционный суд считает, что все начисления, которые будут недоступны пониманию, проверке и оценке со стороны суда априори являются незаконными. Нет ни правовых, ни фактических оснований для презумпции правильности расчетов, произведенных при помощи программного обеспечения.

Суд отметил, что ИИ не является субъектом; это инструмент, который не может вытеснить человека и должен использоваться под контролем ответственного лица. Поэтому внедрение в деятельность налоговых органов ИИ и исключение из текста принимаемых налоговым органом актов указания сумм пеней не снимают с налогового органа ответственности за результат и процессуальных обязанностей по доказыванию правильности начислений.

Соответственно, правомерными являются притязания налогоплательщика на то, чтобы инспекция предоставила ему в доступной форме объяснение, каким образом произведено начисление спорных сумм. Суд первой инстанции не должен был оставлять указанный довод без внимания. Расчеты спорных сумм подлежали проверке. Указанный недостаток апелляционным судом был компенсирован.

Вместе с тем, апелляционный суд признал за налоговым органом само право произвести дополнительные начисления пени при условии соблюдения установленных сроков и процедур.

Мой комментарий: Из анализа позиции апелляционного суда по поводу использования ФНС в своей работе искусственного интеллекта (и даже шире – средств автоматизации вообще) можно сделать следующие выводы:

  • Суд недвусмысленно сказал, что использование автоматизированных систем (включая ИИ) для расчетов не создает презумпции их правильности. Ответственность за результат, каким бы способом он ни был получен (вручную или программой), несет налоговый орган как сторона спора;

  • Аргумент представителя ФНС о том, что расчеты производит «другое подразделение» или «автоматическая система», и что они недоступны для понимания, был признан судом несостоятельным. Суд напомнил, что в силу ст. 65 и 200 АПК РФ, именно государственный орган обязан доказать законность и обоснованность своих ненормативных актов. Внутреннее перераспределение функций (передача расчета ИИ) не отменяет этой обязанности; расчет должен быть понятен суду и налогоплательщику. Любые начисления, недоступные пониманию и проверке, априори являются незаконными;

Решение первой инстанции оставлено в силе только потому, что на апелляции суд самостоятельно восполнил пробел, истребовав расчет у ФНС, проверив его и дав сторонам возможность с ним ознакомиться. Налогоплательщик, проверив расчет, ошибок в нём не нашел.

Источник: Официальный сайт Верховного Суда Российской Федерации / Электронное правосудие по экономическим спорам
http://www.arbitr.ru/ 


суббота, 28 февраля 2026 г.

Когда чаты c ИИ-чатботом становятся доказательством: Американский суд подтвердил постановление, обязывающее компанию OpenAI представить выборку обезличенных логов ChatGPT (1)

Данная заметка Ромы Патель (Roma Patel – на фото) из юридической фирмы Robinson+Cole была опубликована 15 января 2026 года в социальной сети LinkedIn.

5 января 2026 года федеральный окружной суд США по Южному судебному округу Нью-Йорка подтвердил два судебных постановления о раскрытии информации, обязывающих компанию OpenAI предоставить выборку, содержащую 20 миллионов обезличенных логов пользователей ИИ-модели (чатбота) ChatGPT в рамках масштабного судебного разбирательства по авторским правам, инициированного новостными организациями и представляющими коллективный иск истцами. Это решение позволяет увидеть важные аспекты того, как федеральные суды в настоящее время подходят к ситуациям, когда пересекаются вопросы раскрытия информации, зашиты неприкосновенности частной жизни пользователей и релевантности данных, связанных с большими языковыми моделями.

Фактическая и процессуальная предыстория

Истцы добивались раскрытия логов (протоколов), отражающих диалоги пользователей с ИИ-чатботом ChatGPT, включая как подсказки, так и результаты работы модели. Компания OpenAI, которая в рамках своей повседневной деятельности хранит десятки миллиардов таких логов, возражала против поданного в июле 2025 года ходатайства истцов потребовать от компании представления выборки из 120 миллионов протоколов. Взамен OpenAI предложила выборку меньшего объёма - 20 миллионов обезличенных диалогов, указав, что удалит из выборки персональные данные и иную конфиденциальную информацию с помощью специального инструмента обезличивания. Истцы согласились на эту меньшую выборку, оставив за собой право потребовать представления выборки большего объёма, если это будет оправдано.

В октябре 2025 года компания OpenAI изменила свою позицию, предложив выполнить поиск по 20 миллионам логов и представить только те диалоги, которые непосредственно касались принадлежащих истцам работ. Компания OpenAI утверждала, что такой подход лучше защитит персональные данные пользователей ChatGPT. На следующий день истцы отреагировали подачей нового ходатайства об обязании ChatGPT представить всю обезличенную выборку из 20 миллионов логов, а не только её отфильтрованную часть.

7 ноября 2025 года судья-магистрат (фактически, помощник федерального судьи – Н.Х.) Ван (Wang) удовлетворил ходатайство истцов и распорядился представить полную обезличенную выборку из 20 миллионов логов. Ходатайство OpenAI о пересмотре этого решения было отклонено. Суд пришел к выводу о том, что полная выборка логов, включающая как релевантные, так и, казалось бы, не имеющие отношения к претензиям истцов диалоги, необходима для проведения полного анализа, отметив, что даже логы, не имеющие прямого отношения к контенту истцов, могут оказаться релевантными в отношении представленных OpenAI аргументов защиты на основании принципа добросовестного использования (fair use). Судья Ван также оценил соображения, связанные с защитой персональных данных, и определил, что на эти опасения последовало достаточное реагирование посредством использования трёх основных мер защиты: 

  • сокращение объёма раскрываемых данных с десятков миллиардов до 20 миллионов логов; 

  • обезличивание; и 

  • охранный судебный приказ (standing protective order), регламентирующий использование процедуры раскрытия информации в рамках дела.

Анализ, сделанный окружным судом

Компания OpenAI опротестовала распоряжений судьи-магистрата Вана, утверждая, что в них неадекватно были учтены интересы защиты неприкосновенности частной жизни (персональных данных), и что суду следовало принять предложенный компанией менее обременительный метод представления информации. Рассмотрев возражения, судья окружного суда Штайн (Stein) подтвердил оба распоряжения о раскрытии информации.

Ключевые выводы из судебного распоряжения от 6 января 2026 года включают следующее:

  • Баланс между релевантностью и неприкосновенностью частной жизни: Окружной суд установил, что судья-магистрат Ван адекватно сбалансировал потребности защиты персональных данных пользователей с потребностями в раскрытии информации. В частности, сокращение размера выборки, использование деидентификации (обезличивания) и выдача охранного судебного приказа достаточны для решения проблем защиты персональных данных в контексте данного судебного разбирательства;

  • Отсутствие требования об использовании наименее обременительного варианта раскрытия информации: Окружной суд отклонил аргумент компании OpenAI о том, что судья-магистрат Ван был обязан распорядиться об использовании «наименее обременительных» способов представления информации, таких как представление только отфильтрованных результатов поиска. Обращает на себя внимание то, что окружной суд подчеркнул, что ни один применимый прецедент не требует применения такого стандарта в данных обстоятельствах;

  • Отличие от дела «SEC против Раджаратнама»: Компания OpenAI в первую очередь опиралась как на прецедент на дело «Комиссия США по ценным бумагам и биржам (Securities and Exchange Commission, SEC) против Раджаратнама (Rajaratnam)», 622 F.3d 159 (2d. Cir. 2010), см. также Википедию, https://en.wikipedia.org/wiki/SEC_v._Rajaratnam - Н.Х., чтобы обосновать необходимость более сильной защиты неприкосновенности частной жизни. Окружной суд указал на различие между данным делом и делом Раджаратнама, отметив, что последнее касалось тайной сделанных и потенциально незаконных записей прослушивания и в гораздо большей степени затрагивало интересы в отношении неприкосновенности частной жизни. В отличие от этого, пользователи ChatGPT добровольно предоставляли свои данные компании OpenAI в рамках обычного повседневного использования платформы, и законность хранения логов компанией OpenAI в данном случае не вызывает сомнений; и

  • Релевантность помимо вопросов прямого нарушения авторских прав: Повторяя выводы судьи Вана, окружной суд отметил, что даже те логи, в которых речь не идёт о воспроизведении работ, права на которые принадлежат истцам, могут помочь компании OpenAI подтвердить такие аргументы её защиты, как добросовестное использование, - и, следовательно, они являются «релевантными для данного дела» в соответствии с действующим стандартом, регламентирующим раскрытие информации.

(Окончание следует, см. http://rusrim.blogspot.com/2026/03/c-openai-chatgpt-2.html )

Рома Патель (Roma Patel)

Источники: сайт JDSupra  / блог фирмы Robinson+Cole
https://www.jdsupra.com/legalnews/when-chats-become-evidence-court-7484440/ 
https://www.dataprivacyandsecurityinsider.com/2026/01/when-chats-become-evidence-court-affirms-order-requiring-openai-to-produce-20-million-de-identified-chatgpt-logs/