четверг, 14 июля 2022 г.

От алгоритмической подотчетности к цифровому стратегическому управлению

Данное письмо в редакцию Якоба Мёкандера (Jakob Mökander, Оксфордский институт Интернета при Оксфордском университете, Великобритания – на фото слева) и профессора Лучано Флориди (Luciano Floridi, Оксфордский институт Интернета при Оксфордском университете, Великобритания; и факультет юридических исследований Болонского университета, Италия – на фото справа) было опубликовано 14 июня 2022 года в журнале «Природа - Машинный интеллект» (Nature - Machine Intelligence).

3 февраля 2022 года в Конгресс США был внесён проект Закона об алгоритмической подотчетности (Algorithmic Accountability Act of 2022, AAA) [1]. Законопроект является реакцией на растущую озабоченность в отношении автоматизированных систем принятия решений (automated decision systems, ADS). В нём предлагается обязать развертывающие ADS-системы организации предпринимать конкретные шаги для выявления и смягчения потенциального ущерба. В целом, Закон об алгоритмической подотчетности представляет собой прагматичный подход по балансированию преимуществ и рисков, связанных с автоматизированных системами принятия решений. В то же время есть возможности для улучшения данного законопроекта. В данной заметке выделяются многообещающие аспекты законопроекта, а также те вопросы, которые требуют дальнейшей проработки.


Проект Закона об алгоритмической подотчетности,
см. также https://www.govtrack.us/congress/bills/117/s3572

Начнём с рассмотрения достоинств законопроекта. Ориентация законопроекта на регулярность и прозрачность процедур является многообещающей. Законопроект не стремится запрещать или ограничивать использование автоматизированных систем принятия решений. Вместо этого он нацелен на создание инфраструктуры стратегического управления, необходимой для привлечения злоумышленников к ответственности, - позволяет благонамеренным действующим лицам обеспечивать этичность, законность и безопасность их ADS-систем. С этой целью законопроект требует от организаций как проведения оценки воздействия их ADS-систем до начала их развёртывания, так и использования продвинутых процессов принятия решений после развертывания ADS-систем. Как и у всех прочих механизмов стратегического управления, у оценок воздействия есть свои ограничения. Например, они могут упустить специфические виды ущерба или же свести вопрос этичности к упражнению по проставлению «галочек» в контрольном списке. Тем не менее, в сочетании с сильной институциональной поддержкой, оценка воздействия помогает инициировать обсуждение вопросов этики и создавать прослеживаемую документацию.

Далее, терминология законопроекта является здравой с научной точки зрения и соответствует его целям регулирования. Так, например, законопроект сформулирован с использованием термина «автоматизированные системы принятия решений» (ADS), а не более популярного термина «системы искусственного интеллекта» (AI systems). Эти два понятия часто используются взаимозаменяемо; однако формулировка законодательства в терминах ADS лучше отражает особенности рассматриваемых технологий. Это также позволяет избежать отвлекающих от основного вопроса дискуссий о природе интеллекта или даже сознания, связанных с термином «искусственный интеллект».

Наконец, достоинством законопроекта является то, что он вводит стандарт (benchmark) этической и правовой оценки, требуя от организаций сравнивать результаты работы новых ADS-систем с результатами использования ранее существовавших процессов принятия решений. Это разумно, поскольку как у принимающих решения людей, так и у ADS-решений есть свои (часто взаимодополняющие друг друга) сильные и слабые стороны [2]. В число рисков, связанных с использованием ADS-систем, входят риски нарушения неприкосновенности частной жизни и принятия дискриминационных решений [3]. В то же время человеческие суждения часто подвержены когнитивным предвзятостям и необъективностям, и на них могут влиять факторы, связанные с конкретными обстоятельствами [4]. Законопроект принимает во внимание эту динамику, требуя от организаций, желающих развернуть новые ADS-решения, «описать существующий процесс принятия решений» и «объяснить ожидаемые преимущества от его автоматизации». Такой сравнительный подход помогает применить в отношении ADS-решений надлежащие и пропорциональные требования по обеспечению качества и прозрачности.

Несмотря на свои многочисленные достоинства, законопроект можно улучшить. Во-первых, он распространяется только на «крупные компании», которые:

  • Имеют годовой оборот более 50 миллионов долларов США;

  • Располагают собственным капиталом более 250 миллионов долларов; или

  • Обрабатывают информацию более чем 1 миллиона пользователей.

Исключительное внимание к крупным компаниям вызывает сожаление, поскольку многие другие учреждения и организации, в том числе органы исполнительной власти, также используют ADS-системы для принятия ключевых решений, затрагивающих интересы людей и окружающую среду. Более того, хотя исключение для малых и средних предприятий можно понять, используемая в текущей редакции законопроекта формулировка не очень-то помогает. То, что не все автоматизированные системы принятия решений охватываются едиными требованию в плане обеспечения прозрачности, подвергает физических лиц ненужным рискам и может позволить злоумышленникам избежать надзора со стороны контролирующих органов посредством передачи выполнения соответствующих задач на аутсорсинг с применением «творческого» бухгалтерского учёта.

Во-вторых, несмотря на то, что законопроект представляет собой пересмотренную и улучшенную версию проекта Закона об алгоритмической отчетности 2019 года, отдельные его части по-прежнему недостаточно подробны и конкретны. Да, законопроект адекватно определяет такие термины, как «автоматизированные системы принятия решений» (ADS) и «подпадающее под требования закона лицо» (covered entity - то есть лицо или организация, в отношении которых применимы положения законопроекта); однако важные решения, связанные с разработкой политики, делегированы Федеральной комиссии по торговле (Federal Trade Commission, FTC). Более того, в ряде случаев формулировки законопроекта излишне расплывчаты. Например, подпадающие под требования закона лица должны «в той степени, в которой это возможно, консультироваться с заинтересованными сторонами, такими как эксперты по технологиям и представители групп, чьи интересы затрагиваются». Включение (частое) таких нечётких формулировок, как «в той степени, в которой это возможно» рискует ослабить предлагаемое законодательство.

В-третьих, законопроект стремится обеспечить как равное отношение к субъектам принятия решений, так и равноценные результаты для различных защищаемых групп — стремление, реализация которого может оказаться проблематичной. Ценности часто противоречат друг другу и требуют компромиссов. Например, ADS-система может повысить общую точность процесса принятия решений, но по-прежнему дискриминировать определенные конкретные подгруппы [5]. Аналогичным образом являются взаимоисключающими различные интерпретации справедливости (такие, как индивидуальная справедливость и демографическое равенство) [6]. Согласно законопроекту, подпадающие под его действие лица обязаны «проводить постоянную оценку любых различий в результатах, связанных с расой, цветом кожи, полом, сексуальной ориентацией, возрастом, инвалидностью, религией, а также семейным, социально-экономическим или ветеранским статусом». В то де время остается неясным, ожидается ли, что данные лица будут получать такую информацию в упреждающем порядке. Также неясно, какой вес имеет это требование по отношению к другим показателям работы систем, таким как точность, эффективность и обеспечение защиты персональных данных.

Вернемся на шаг назад. Данный законопроект является последней вехой в рамках мировой тенденции дополнить законодательством саморегулирование в области автоматизированного принятия решений [7]. Наиболее авторитетным примером этой тенденции является Закон об искусственном интеллекте (Artificial Intelligence Act) [8], предложенный Еврокомиссией в 2021 году. По сравнению с их европейскими аналогами, нынешние усилия США по регулированию автоматизированных систем принятия решений слишком скромны. В конце концов, ADS-системы оказывают влияние не только на «потребителей», но и на граждан в целом. Более того, политика сильна ровно настолько, насколько сильны поддерживающие её институты. Если европейский «Закон об искусственном интеллекте» является частью целостных усилий Европейского союза (ЕС) по формированию цифровых экосистем [9], то американский законопроект представляет собой лишь фрагментарные усилия. После введения в 2016 году «Общих правил защиты персональных данных» (General Data Protection Regulation, GDPR, https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1532348683434&uri=CELEX:02016R0679-20160504закон Евросоюза о защите персональных данных – Н.Х.) наблюдался «эффект Брюсселя», когда многонациональные организации предпочли гармонизировать свои практики управления данными с законами Евросоюза, исходя из практических соображений [10]. Принимая во внимание экономический вес и технологическое лидерство США, вызывает сожаление тот факт, что может не возникнуть «эффекта Вашингтона» (или совместного эффекта Брюсселя-Вашингтона), который бы позитивно повлиял на формирование глобальных цифровых экосистем.

Трудные вопросы, которые необходимо решить, касаются того, какие критерии принятия решений и какие доказательства следует считать законными в рамках различных частных и государственных процессов принятия решений. Ответ на подобные вопросы требует позитивного видения того, какими должны быть общества будущего. Ввиду этого определяющие политику органы должны выйти за рамки попыток обеспечить минимальную алгоритмическую подотчетность, и вместо этого сфокусировать усилия на разработке механизмов стратегического управления, которые определяют не только то, как разрабатываются ADS-системы, но и то, каким целям эти системы служат, одновременно позволяя организациям находить и обосновывать компромиссы в пределах коммерческой осмысленности и допустимости с точки зрения права.

Якоб Мёкандер (Jakob Mökander) и Лучано Флориди (Luciano Floridi)

Литература

1. Office of US Senator Ron Wyden. Algorithmic Accountability Act of 2022 (2022).

2. Danks, D. & London, A. J. IEEE Intell. Syst. 32, 88-91 (2017).

3. Tsamados, A. et al. AI Soc. 37, 215-230 (2021).

4. Kahneman, D., Sibony, O. & Sunstein, C. R. Noise: a Flaw in Human Judgment (Little, Brown Spark, 2021).

5. Whittlestone, J., Alexandrova, A., Nyrup, R. & Cave, S. In Proc. 2019 AAAI/ACM Conference on AI, Ethics, and Society 195-200 (2019).

6. Kleinberg, J., Mullainathan, S. & Raghavan, M. Lebniz. Int. Proc. Inform. 67, 1-23 (2017).

7. Floridi, L. Philos. Technol. 34, 619-622 (2021).

8. European Commission. Proposal for Regulation of the European Parliament and of the Council - Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts (2021).

9. Mökander, J., Axente, М., Casolari, F. & Floridi, L. Minds Mach. 32, 241-268 (2021).

10. Bradford, A. The Brussels Effect (Oxford Univ. Press, 2020).

Источник: сайт журнала «Природа - Машинный интеллект» (Nature - Machine Intelligence).
https://doi.org/10.1038/s42256-022-00504-5
https://www.nature.com/articles/s42256-022-00504-5.epdf...

Комментариев нет:

Отправить комментарий