воскресенье, 19 февраля 2023 г.

Соображения профессиональной ответственности при использовании искусственного интеллекта для э-раскрытия: Компетентность, конфиденциальность, неприкосновенность частной жизни и права собственности

Данный пресс-релиз, подготовленный компанией EDRM Global, Inc.,  был опубликован 26 января 2023 года на новостном сайте EINPresswire.com.

Объединяющее юристов и специалистов по э-раскрытию сообщество «Эталонная модель э-раскрытия» (Electronic Discovery Reference Model, EDRM, http://edrm.net/ ) объявляет о публикации новой «белой книги, в которой рассматриваются «Соображения профессиональной ответственности при использовании искусственного интеллекта для э-раскрытия: Компетентность, конфиденциальность, неприкосновенность частной жизни и права собственности» (Professional Responsibility Considerations in AI for eDiscovery: Competence, Confidentiality, Privacy & Ownership).

Мой комментарий: Версия для публичного обсуждения объёмом 9 страниц доступна по адресу https://edrm.net/download/161472/?tmstv=1674947658

Сообщество «Эталонная модель э-раскрытия» (Electronic Discovery Reference Model, EDRM), разрабатывающее глобальные стандарты для э-раскрытия, рада представить «белую книгу» (аналитический отчёт), посвященный «Соображениям профессиональной ответственности при использовании искусственного интеллекта для э-раскрытия: Компетентность, конфиденциальность, неприкосновенность частной жизни и права собственности». Замечания и предложения предлагается подавать до 20 февраля 2023 года  с использованием веб-формы на странице https://edrm.net/active-projects/analytics-and-machine-learning/ai-ethics-bias/ .

Технологии и сервисы э-раскрытия, обеспечивающие безопасность и неприкосновенность частной жизни (защиту персональных данных), будут играть центральную роль в организациях, стремящихся оправиться от нынешнего глобального кризиса и стать более сплоченными, стабильными и продуктивными. Надежная технология э-раскрытия, поддерживаемая экспертными знаниями и сервисами, помогает организациям реагировать на требования, предъявляемые в ходе судебных разбирательств, расследований и проверок исполнения законодательно-нормативных требований. В новую эпоху масштабной удалённой работы организациям необходимо безопасно управлять информацией, защищать конфиденциальность и привилегированность информации, и эффективно взаимодействовать, чтобы действовать эффективно и продуктивно, а также соблюдать всё более сложные требования концепций обеспечения безопасности и защиты персональных данных.

Использование инструментов искусственного интеллекта (ИИ) в процессе э-раскрытия создает новые возможности для юристов. Извлекая, анализируя и применяя информацию из больших наборов данных, ИИ-инструменты способны подсказывать новые идеи, систематизировать процессы, сокращать сроки решения задач и уменьшать затраты. Ярким примером тому является метод «поддерживаемого технологиями процесса анализа» (technology assisted review, TAR) - процесс, в котором используется машинное обучение для определения приоритетов и/или классификации соответствующих материалов при анализе документов. Практикующие юристы могут сократить затраты, время и количество ошибок, применяя метод TAR в ходе судебных разбирательств, антимонопольных проверок, расследований и в других ситуациях. Однако по мере расширения применения этих технологий юристами могут возникать этические проблемы, особенно в связи с возможностью повторного использования результатов компьютерного обучения в будущих судебных делах, но для других клиентов.

Данная «белая книга» была подготовлена подгруппой по этике и предвзятости ИИ комитета EDRM по аналитике и машинному обучению, возглавляемой руководителями проекта Крисом МакКинни (Khrys McKinney) и Дэйвом Льюисом (Dave Lewis).

«Юристы, допускающие применение машинного обучения с использованием данных своих клиентов, дополнительно защитят как самих себя, так и своих клиентов, предварительно выяснив, какая информация их клиентов (если таковая имеется) так или иначе используется программным приложением за рамками первоначального дела», — отмечает Крис МакКинни.

«ИИ-программы, такие как ChatGPT, могут выдавать самые странные результаты. Так же могут вести себя и системы машинного обучения, которые юристы могли обучить на данных своих клиентов, - поэтому юристам следует осознавать риски для конфиденциальности, неприкосновенности частной жизни и прав интеллектуальной собственности», - говорит Дэйв Льюис. «Мы надеемся, что эта белая книга будет полезным руководством».

«Сообществу EDRM и всему нашему юридическому сообществу в целом повезло, что подготовку этого, находящегося «на переднем крае» документа возглавили и внесли в него свой вклад лучшие ученые в области э-раскрытия и другие эксперты», - прокомментирует Дэвид Коэн (David R. Cohen), партнёр в фирме Reed Smith и председатель совета попечителей проекта EDRM. «В белой книге освещаются важные проблемы, возникающие в результате использования ИИ-моделей в различных ситуациях - вопросы, которые большинство юристов, возможно, ранее не рассматривали, но должны рассматривать сейчас - чтобы обеспечить выполнение нами своих этических обязательств, включая защиту конфиденциально предоставленной клиентами информации».

Среди возможностей и ресурсов, предоставляемых EDRM-сообществом - возможность подключаться, общаться и вносить свой вклад посредством участия в проектах и мероприятиях EDRM, возможность делиться своим опытом с нашим глобальным сообществом. Сообщество EDRM, состоящее из обладающих междисциплинарными знаниями специалистов, создает ресурсы, помогающие совершенствовать концепции, процессы и стандарты э-раскрытия, защиты неприкосновенности частной жизни, безопасности и стратегического управления информацией.

Сообщество EDRM состоит на 33% из представителей корпораций, на 30% из представителей юридических фирм, на 23% из поставщиков программного обеспечения и услуг и на 12% из представителей государственных органов из 145 стран на шести континентах. Оставшиеся 2%  - это преподаватели, студенты, судьи и журналисты..

Источник: сайт EINPresswire.com
https://www.einpresswire.com/article/612949059/professional-responsibility-considerations-in-ai-for-ediscovery-competence-confidentiality-privacy-and-ownership

Комментариев нет:

Отправить комментарий