вторник, 12 мая 2026 г.

США: Конференция Седона опубликовала «Блок-схему принятия решений при оценке доказательств, сгенерированных искусственным интеллектом»

24 апреля 2026 года сайт и новостная рассылка «Конференции Седона» (Sedona Conference ®) – очень авторитетного американского некоммерческого правового идейного центра, в основном занимающегося вопросами раскрытия в ходе судебных разбирательств и расследований сохраняемой в электронном виде информации (э-раскрытия), - сообщили о публикации в виде препринта «Блок-схемы принятия решений при оценке доказательств, сгенерированных искусственным интеллектом» (Decision Tree for Evaluating AI-Generated Evidence), https://www.thesedonaconference.org/download-publication?fid=9775 .

Данный 9-страничный материал, подготовленный Полом Гриммом (Paul W. Grimm), Маурой Гроссман (Maura R. Grossman) и Кевином Брэди (Kevin F. Brady) войдёт в 27-й том «Журнала Конференции Седона» (Sedona Conference Journal) за апрель 2026 года.

В аннотации на публикацию отмечается:

««Журнал Конференции Седона» информирует о публикации «Блок-схемы принятия решений при оценке доказательств, сгенерированных искусственным интеллектом», разработанной ведущими экспертами по вопросам доказывания -  Полом Гриммом, Маурой Гроссман и Кевином Брэди.

Данный практически полезный ресурс предлагает ясную, пошаговую концептуальную схему оценки аутентичности и допустимости созданных с помощью ИИ доказательств в соответствии с Федеральными правилами представления доказательств (Federal Rules of Evidence, FRE), помогая судьям и адвокатам решать ключевые проблемы, такие как релевантность, достоверность, надежность и потенциальная предвзятость. Он также содержит актуальные рекомендации в отношении новых аспектов нормативно-правовой базы, включая предложенный новый пункт 707 Федеральных правил представления доказательств и использование созданных с помощью ИИ доказательств без привлечения экспертов для дачи ими показаний лично.

«Блок-схема принятия решений …», основанная на устоявшихся принципах представления доказательств и на современных реалиях ИИ, стремится предоставить участникам судебных процессов, судьям и юрисконсультам организаций структурированный и защитимый подход, позволяющий ориентироваться в этой быстро развивающейся области.»

Согласно схеме, на стадии досудебного разбирательства судьи будут ожидать от стороны, представляющей созданные с помощью ИИ доказательства, раскрытия и/или представления по запросу противоположной стороне и суду соответствующих данных, лежащих в основе этих доказательств (таких, например, как обучающие данные и описание процессов разработки, тестирования и функционирования системы ИИ), с целью подтверждения достоверности и надежности таких доказательств.

Помимо прочего, авторы предлагают следующие практичные рекомендации: «Если Вы представляете созданные с помощью ИИ доказательства, будьте готовы:

  • Идентифицировать и раскрыть такие доказательства уже на ранней стадии судебного процесса:

    • Идентифицировать все созданные с помощью ИИ доказательства и потенциальные доказательства в начале рассмотрения дела;

    • Рассмотреть вопрос о необходимости раскрытия таких доказательств для противоположной стороны и о необходимости вмешательства/получения одобрения суда на ранней стадии процесса.

  • Немедленно поднять этот вопрос перед адвокатом противоположной стороны и судом:

    • Обсудить планы использования созданных с помощью ИИ доказательств на ранней стадии судебного процесса (например, в рамках совещаний сторон, проводимых в соответствии с правилом 26(f) и/или правилом 16(b)).

      Мой комментарий: Речь здесь идёт об американских Федеральных правилах гражданского судопроизводства (Federal Rules of Civil Procedure, FRCP, см. https://www.law.cornell.edu/rules/frcp/ ), и о Правиле 26 «Обязанности по раскрытию; Общие положения, касающиеся раскрытия» (Rule 26. Duty to Disclose; General Provisions Governing Discovery, см. https://www.law.cornell.edu/rules/frcp/rule_26 ). Пункт 26(f) посвящён предварительным встречам сторон и планированию процесса раскрытия документов и информации. Также упомянуто Правило 16 «Досудебные совещания сторон, планирование и управление ими» (Rule 16. Pretrial Conferences; Scheduling; Management, https://www.law.cornell.edu/rules/frcp/rule_16 ). Пункт 16(b) этого правила посвящен вопросам планирования и управления совещаниями сторон.

    • Попросить суд установить крайние сроки раскрытия/представления информации и оспаривания созданных с помощью ИИ доказательств.

  • Назначить слушания пораньше:

    • Запросить проведение слушаний вскоре после первоначального совещания сторон с тем, чтобы определить, являются ли созданные с помощью ИИ доказательства допустимыми, надёжными, непредвзятыми и уместными для рассмотрения жюри присяжных.

  • Четко и ясно объяснить созданные с помощью ИИ доказательства:

    • Описать проблему, для решения которой был разработан ИИ, и принципы его работы в понятных терминах, чтобы противоположная сторона, судья и присяжные могли это понять.

    • Показать, как результаты ИИ связаны с вопросами Вашего дела.

  • Обеспечить защиту чувствительной (конфиденциальной) информации:

    • Подумать о необходимость получения охранных судебных приказов (protective orders) для защиты коммерческой тайны, проприетарных данных и персональных данных, связанных с созданными с помощью ИИ доказательствами.

  • Привлечь квалифицированных экспертов:

    • Нанять экспертов, способных просто и ясно объяснить разработку, обучение, тестирование и функционирование ИИ;

    • Убедиться в том, что в экспертных заключениях рассмотрены вопросы достоверности, надежности, частоты ошибок и потенциальной предвзятости.

  • Рассмотреть вопросы предвзятости и проблем с данными:

    •  Объяснитm данные, использованные для проектирования, создания, обучения и тестирования системы ИИ, а также целевую аудиторию пользователей;

    • Разъяснить все шаги, предпринятые для предотвращения или смягчения предвзятости.

  • Продемонстрировать достоверность и надёжность:

    • Показать, что ИИ был независимо протестирован на достоверность и надёжность;

    • Если независимое тестирование не проводилась, следует быть готовыми объяснить, почему так произошло, и какие иные шаги были предприняты для подтверждения достоверности и надёжности.

  • Подготовиться к оспариванию допустимости доказательств:

    • Если допустимость созданных с помощью ИИ доказательств может быть оспорена, подайте подробные досудебные ходатайства в поддержку или с возражениями против допустимости доказательств, охватывающие вопросы достоверности, надёжности, частоты ошибок, предвзятости и происхождения (показывающие, откуда были получены доказательства, и цепочку их ответственного хранения), - чтобы суд мог вынести обоснованное решение.

Источник: сайт Конференции Седона
https://www.thesedonaconference.org/publication/Decision_Tree_for_Evaluating_AI-Generated_Evidence 

Комментариев нет:

Отправить комментарий