вторник, 14 марта 2023 г.

Алгоритмические «чёрные лебеди»

Сайт «Сети исследований в области социальных наук» (Social Science Research Network, SSRN) – поддерживаемого издательством Elsevier электронного журнала, электронной библиотеки и поисковой системы – 1 марта 2023 года сообщил о размещении на нём любопытной статьи Ноама Колт (Noam Kolt) из Университета Торонто (Канада), которая войдёт в 101-й том журнала «Правовой обзор Университета Вашингтона» (Washington University Law Review).

Статья под названием «Алгоритмические «чёрные лебеди»» (Algorithmic Black Swans) объёмом 55 страниц доступна по адресу https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4370566


 В аннотации на статью отмечается следующее:

«От предвзятых алгоритмов кредитования до чат-ботов, позволяющих себе неполиткорректные и провокационные высказывания, системы искусственного интеллекта (ИИ) уже представляют для общества немало рисков. Политики несут ответственность за решение насущных вопросов алгоритмической справедливости, защиты неприкосновенности частной жизни и обеспечения подотчетности, - и они также несут ответственность за принятие во внимание более широких, долгосрочных рисков, связанных с ИИ-технологиями.

В сферах общественного здравоохранения, науки о климате и финансовых рынков, предвидение рисков, затрагивающих общество в целом, и реагирование на них имеют решающее значение. Как продемонстрировала пандемия Covid-19, пренебрежительное отношение к маловероятным катастрофическим событиям - «черным лебедям» - обходится дорого.

Перспектива того, что автоматизированные системы будут манипулировать нашей информационной средой, искажая социальные ценности и дестабилизируя политические институты, становится всё более реальной. В настоящее время представляется маловероятным, что рыночные силы смогут смягчить риски этой группы. Создающие ИИ-системы организации не несут материальной ответственности за распространение социального вреда, и слабо мотивированы на то, чтобы встраивать адекватные меры и средства защиты.

Между тем, законодательные инициативы, такие как законопроект Белого дома о правах, связанных с применением ИИ-технологий (о нём см. пост на блоге http://rusrim.blogspot.com/2022/11/1.html - Н.Х.) и проект закона Евросоюза об искусственном интеллекте (Artificial Intelligence Act, см. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206 ), в первую очередь обращают внимание на непосредственные риски, связанные с ИИ, а не более широкие, долгосрочные риски.

Чтобы заполнить этот пробел в стратегическом управлении, в данное статье предлагается «дорожная карта» обеспечения «алгоритмической готовности» - это набор из пяти дальновидных принципов, которые должны направлять разработку нормативно-правовых актов, противодействующих перспективе алгоритмических «чёрных лебедей» и смягчающих вред, которые те могут причинить обществу.»

Источник: сайт SSRN
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4370566

Комментариев нет:

Отправить комментарий