(Окончание, начало см. https://rusrim.blogspot.com/2022/11/1.html )
Проект Билля о правах, связанных с применением искусственного интеллекта
1. Безопасные и эффективные системы
Вы должны быть защищены от небезопасных или неэффективных систем. В ходе разработки автоматизированных систем должны проводиться консультации с различными сообществами, заинтересованными сторонами и экспертами в предметной области, с целью выявления проблем, рисков и потенциальных воздействий системы.
Перед развертыванием системы должны подвергаться тестированию, должны проводиться выявление и снижение рисков, а также должен вестись постоянный мониторинг, демонстрирующий их безопасность и эффективность на основе их предполагаемого использования, смягчения небезопасных последствий (включая те, что выходят за рамки предполагаемого использования), и соблюдения специфичных для предметной области стандартов.
Результаты этих защитных мер должны включать возможность отказа от развёртывания системы или вывода системы из эксплуатации. Автоматизированные системы не должны проектироваться с намерением или с разумно предсказуемой возможностью поставить под угрозу Вашу безопасность или безопасность Вашего сообщества. Они должны быть разработаны для упредительной защиты Вас от вреда, связанного с непреднамеренным, но предсказуемым использованием или воздействием автоматизированных систем. Вы должны быть защищены от ненадлежащего или неуместного использования данных при проектировании, разработке и развертывании автоматизированных систем, а также от совокупного вреда вследствие их повторного использования. Должны проводиться независимая оценка и подготовка отчетности, подтверждающие безопасность и эффективность системы, включая отчеты о шагах, предпринятых для смягчения потенциального вреда, - а результаты должны быть по возможности обнародованы.
2. Защита от алгоритмической дискриминации
Вы не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и проектироваться на основе идей о справедливости. Алгоритмическая дискриминация имеет место, когда автоматизированные системы способствуют неоправданному различному отношению либо оказывают неблагоприятное воздействие на людей вследствие их расы, цвета кожи, этнической принадлежности, пола (в т.ч. в случае беременности, родов и связанных с ними заболеваний; и включая вопросы гендерной идентичности, интерсексуального статуса и сексуальной ориентации), религии, возраста, национального происхождения, инвалидности, статус ветерана, генетической информация или любой иной защищаемой законом категории.
В зависимости от конкретных обстоятельств, такая алгоритмическая дискриминация может нарушать охраняемые законом права. Проектировщики, разработчики и установщики автоматизированных систем должны принимать упреждающие и постоянно действующие меры для защиты отдельных лиц и сообществ от алгоритмической дискриминации, а также для использования и проектирования систем справедливым образом.
Такая защита должна включать упреждающую оценку справедливости в рамках проектирования системы, использование репрезентативных данных и защиту от использования демографических характеристик, выводимых из косвенных данных, обеспечение доступности для людей с ограниченными возможностями при проектировании и разработке, предварительное развертывание и постоянное тестирование на наличие и устранение проявлений неравенства, а также чётко налаженный в организации надзор.
Для подтверждения эффективности этих мер защиты должна проводиться независимая оценка и готовиться отчёты на простом и понятном языке об оценке алгоритмического воздействия, включая результаты проверки на проявления неравенства и сведения о смягчении последствий, - которые по возможности должны публиковаться.
3. Защита персональных данных
Вы должны быть защищены от неправомерных практик обработки данных посредством встроенных мер и средств защиты, и Вы должны иметь возможность влиять на то, как используются данные о Вас. Вы должны быть защищены от нарушений неприкосновенности частной жизни, и с этой целью должны выбираться такие варианты дизайна, которые гарантируют включение соответствующих средств защиты по умолчанию, и обеспечивают, в том числе, то, что сбор данных соответствует разумным ожиданиям, и что собираются только те данные, что совершенно необходимы в конкретном контексте.
Проектировщики, разработчики и установщики автоматизированных систем должны запрашивать Ваше разрешение и уважать надлежащим образом и в максимально возможной степени Ваши решения относительно сбора, использования, доступа, передачи и удаления Ваших данных; - там же, где это невозможно, следует использовать альтернативные меры запроектированной защиты неприкосновенности частной жизни. Системы не должны использовать пользовательский опыт и проектные решения, которые затрудняют осуществление выбора пользователя либо обременяют пользователя настройками по умолчанию, нарушающими неприкосновенность его частной жизни.
Согласие следует использовать для обоснования сбора данных только в тех случаях, когда оно может быть дано надлежащим и осмысленным образом. Любые запросы на получение согласия должны быть краткими, написанными на простом языке и понятными, предоставляя Вам свободу принятия решений в отношении сбора данных и конкретного контекста использования. Используемые сейчас трудные для понимания методы уведомления/выбора для последующего широкого использования данных должны быть изменены.
Усиленные меры защиты и ограничения в отношении данных и аналитических выводов, связанных с чувствительными вопросами, включая здоровье, работу, образование, уголовное правосудие и финансы, а в отношении данных, касающихся молодежи, должны поставить Вас на первое место. В чувствительных вопросах Ваши данные и связанные с ними аналитические выводы должны использоваться только для выполнения необходимых функций, и Вы должны быть защищены посредство анализа на этичность обработки и запретов на использование.
Вы и Ваши сообщества должны быть свободны от неконтролируемой слежки. Технологии наблюдения должны подвергаться усиленному надзору, включающему, по крайней мере, предшествующую развёртыванию оценку их потенциального вреда и ограничений сферы применения с целью защиты неприкосновенности частной жизни и гражданских свобод. Непрерывное наблюдение и мониторинг не должны использоваться в сферах образования, работы, жилья или в иных контекстах, где вероятно, что использование таких технологий ограничит права, возможности или доступ. Когда это возможно, Вы должны иметь доступ к отчетности, подтверждающей, что Ваши решения в отношении данных уважались, и дающей оценку потенциального воздействия технологий наблюдения на Ваши права, возможности или доступ.
4. Уведомление и объяснение
Вы должны знать о том, что используется автоматизированная система, и понимать, как и почему она оказывает влияние на результаты, которые влияют на Вас. Проектировщики, разработчики и установщики автоматизированных систем должны предоставить общедоступную, написанную простым языком документацию, включающую чёткое описание функционирования системы в целом и роль, которую играет автоматизация; и уведомление об использовании таких систем, включающее сведения об ответственном за систему лице или организации, и ясные, своевременные и доступные объяснения последствий.
Такое уведомление должно актуализироваться, а люди, чьи интересы затрагиваются системой, должны уведомляться о существенных изменениях вариантов использования или ключевых функций. Вы должны знать, как и почему автоматизированной системой был получен влияющий на Вас результат, в том числе в тех случаях, когда автоматизированная система не является единственным источником сведений, на основе которых определяется результат.
Автоматизированные системы должны предоставлять объяснения, которые являются технически корректными, содержательными и полезными для Вас, для операторов или иных лиц, которым необходимо понимать систему, и откалиброваны в соответствии с уровнем риска, зависящего от контекста. Отчетность, включающая сводную информацию об этих автоматизированных системах на простом языке, а также оценки ясности и качества уведомлений и объяснений, должна по возможности публиковаться.
5. Альтернативное принятие решений людьми, человеческий контроль и «запасные варианты»
У Вас должна быть возможность отказаться, где это уместно, от использования автоматизированных систем, и получить доступ к человеку, который может быстро рассмотреть и устранить проблемы, с которыми Вы столкнулись. Вы должны иметь возможность отказаться от услуг автоматизированных систем в пользу альтернативы принятия решений человеком, где это уместно. Уместность в этом случае должна определяться на основе разумных ожиданий в данном контексте и с акцентом на обеспечение широкой доступности и защиты общественности от особо вредных последствий.
В некоторых случаях альтернативное участие человека или иная альтернатива может требоваться по закону. У Вас должен быть доступ к своевременному рассмотрению и исправлению ситуации человеком посредством процесса перехода на запасной вариант (fallback) отката и поднятия вопроса на более высокий уровень (escalation) в случае, если автоматизированная система дает сбой, выдает ошибку или если Вы хотите подать апелляцию или опротестовать её воздействие на Вас.
Возможность рассмотрения вопроса человеком и использования запасного варианта должна быть доступной, справедливой, эффективной; она должна поддерживаться, сопровождаться соответствующей подготовкой операторов и не должны ложиться необоснованным бременем на общество.
Автоматизированные системы, которые предполагается использовать в чувствительных областях, включая, помимо прочего, уголовное правосудие, трудоустройство, образование и здравоохранение, должны быть дополнительно адаптированы к целевому назначению, должны обеспечивать полноценный доступ для целей надзора, включать обучение всех, кто взаимодействует с системой, и предусматривать рассмотрение человеком при принятии неблагоприятных решений или решений с высокой степенью риска.
Отчетность, включающая описание этих процессов стратегического управления человеком и оценку их своевременности, доступности, результатов и эффективности, должна, когда это возможно, публиковаться.
Источник: сайт Белого дома
https://www.whitehouse.gov/ostp/ai-bill-of-rights/
https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf
вторник, 8 ноября 2022 г.
США: Опубликован Проект Билля о правах, связанных с применением искусственного интеллекта, часть 2
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий