Данный 9-страничный материал, подготовленный Полом Гриммом (Paul W. Grimm), Маурой Гроссман (Maura R. Grossman) и Кевином Брэди (Kevin F. Brady) войдёт в 27-й том «Журнала Конференции Седона» (Sedona Conference Journal) за апрель 2026 года.
В аннотации на публикацию отмечается:
««Журнал Конференции Седона» информирует о публикации «Блок-схемы принятия решений при оценке доказательств, сгенерированных искусственным интеллектом», разработанной ведущими экспертами по вопросам доказывания - Полом Гриммом, Маурой Гроссман и Кевином Брэди.
Данный практически полезный ресурс предлагает ясную, пошаговую концептуальную схему оценки аутентичности и допустимости созданных с помощью ИИ доказательств в соответствии с Федеральными правилами представления доказательств (Federal Rules of Evidence, FRE), помогая судьям и адвокатам решать ключевые проблемы, такие как релевантность, достоверность, надежность и потенциальная предвзятость. Он также содержит актуальные рекомендации в отношении новых аспектов нормативно-правовой базы, включая предложенный новый пункт 707 Федеральных правил представления доказательств и использование созданных с помощью ИИ доказательств без привлечения экспертов для дачи ими показаний лично.
«Блок-схема принятия решений …», основанная на устоявшихся принципах представления доказательств и на современных реалиях ИИ, стремится предоставить участникам судебных процессов, судьям и юрисконсультам организаций структурированный и защитимый подход, позволяющий ориентироваться в этой быстро развивающейся области.»
Согласно схеме, на стадии досудебного разбирательства судьи будут ожидать от стороны, представляющей созданные с помощью ИИ доказательства, раскрытия и/или представления по запросу противоположной стороне и суду соответствующих данных, лежащих в основе этих доказательств (таких, например, как обучающие данные и описание процессов разработки, тестирования и функционирования системы ИИ), с целью подтверждения достоверности и надежности таких доказательств.
Помимо прочего, авторы предлагают следующие практичные рекомендации: «Если Вы представляете созданные с помощью ИИ доказательства, будьте готовы:
- Идентифицировать и раскрыть такие доказательства уже на ранней стадии судебного процесса:
- Идентифицировать все созданные с помощью ИИ доказательства и потенциальные доказательства в начале рассмотрения дела;
- Рассмотреть вопрос о необходимости раскрытия таких доказательств для противоположной стороны и о необходимости вмешательства/получения одобрения суда на ранней стадии процесса.
- Немедленно поднять этот вопрос перед адвокатом противоположной стороны и судом:
- Обсудить планы использования созданных с помощью ИИ доказательств на ранней стадии судебного процесса (например, в рамках совещаний сторон, проводимых в соответствии с правилом 26(f) и/или правилом 16(b)).
Мой комментарий: Речь здесь идёт об американских Федеральных правилах гражданского судопроизводства (Federal Rules of Civil Procedure, FRCP, см. https://www.law.cornell.edu/rules/frcp/ ), и о Правиле 26 «Обязанности по раскрытию; Общие положения, касающиеся раскрытия» (Rule 26. Duty to Disclose; General Provisions Governing Discovery, см. https://www.law.cornell.edu/rules/frcp/rule_26 ). Пункт 26(f) посвящён предварительным встречам сторон и планированию процесса раскрытия документов и информации. Также упомянуто Правило 16 «Досудебные совещания сторон, планирование и управление ими» (Rule 16. Pretrial Conferences; Scheduling; Management, https://www.law.cornell.edu/rules/frcp/rule_16 ). Пункт 16(b) этого правила посвящен вопросам планирования и управления совещаниями сторон. - Попросить суд установить крайние сроки раскрытия/представления информации и оспаривания созданных с помощью ИИ доказательств.
- Назначить слушания пораньше:
- Запросить проведение слушаний вскоре после первоначального совещания сторон с тем, чтобы определить, являются ли созданные с помощью ИИ доказательства допустимыми, надёжными, непредвзятыми и уместными для рассмотрения жюри присяжных.
- Четко и ясно объяснить созданные с помощью ИИ доказательства:
- Описать проблему, для решения которой был разработан ИИ, и принципы его работы в понятных терминах, чтобы противоположная сторона, судья и присяжные могли это понять.
- Показать, как результаты ИИ связаны с вопросами Вашего дела.
- Обеспечить защиту чувствительной (конфиденциальной) информации:
- Подумать о необходимость получения охранных судебных приказов (protective orders) для защиты коммерческой тайны, проприетарных данных и персональных данных, связанных с созданными с помощью ИИ доказательствами.
- Привлечь квалифицированных экспертов:
- Нанять экспертов, способных просто и ясно объяснить разработку, обучение, тестирование и функционирование ИИ;
- Убедиться в том, что в экспертных заключениях рассмотрены вопросы достоверности, надежности, частоты ошибок и потенциальной предвзятости.
- Рассмотреть вопросы предвзятости и проблем с данными:
- Объяснитm данные, использованные для проектирования, создания, обучения и тестирования системы ИИ, а также целевую аудиторию пользователей;
- Разъяснить все шаги, предпринятые для предотвращения или смягчения предвзятости.
- Продемонстрировать достоверность и надёжность:
- Показать, что ИИ был независимо протестирован на достоверность и надёжность;
- Если независимое тестирование не проводилась, следует быть готовыми объяснить, почему так произошло, и какие иные шаги были предприняты для подтверждения достоверности и надёжности.
- Подготовиться к оспариванию допустимости доказательств:
- Если допустимость созданных с помощью ИИ доказательств может быть оспорена, подайте подробные досудебные ходатайства в поддержку или с возражениями против допустимости доказательств, охватывающие вопросы достоверности, надёжности, частоты ошибок, предвзятости и происхождения (показывающие, откуда были получены доказательства, и цепочку их ответственного хранения), - чтобы суд мог вынести обоснованное решение.
Источник: сайт Конференции Седона
https://www.thesedonaconference.org/publication/Decision_Tree_for_Evaluating_AI-Generated_Evidence



Комментариев нет:
Отправить комментарий