Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 27 мая 2021 года на блоге компании Formtek.
Наш мир всё больше управляется алгоритмами, и, к сожалению, многие из этих алгоритмов не без дефектов и предвзятости.
Юрисконсульт Национальной коалиции испаноязычных СМИ (National Hispanic Media Coalition) Франселла Очилло (Francella Ochillo, https://fedsoc.org/contributors/francella-ochillo ) говорит, что «алгоритмы контролируют различные аспекты цифровой экономики. Они определяют, какие кандидаты будут приглашены на собеседование и сколько им будут платить; на кого будет нацелена реклама и кто будет исключён из рекламных кампаний; и сколько потребители будут платить за товары и их доставку в Интернете» (см. https://www.nbcnews.com/tech/tech-news/new-bill-aims-stamp-out-bias-algorithms-used-companies-n993186 ).
Конгресс США рассмотрит проект Закона об алгоритмической подотчетности (Algorithmic Accountability Act, https://www.wyden.senate.gov/imo/media/doc/Algorithmic%20Accountability%20Act%20of%202019%20Bill%20Text.pdf ), предложенный Роном Уайденом (Ron Wyden, https://www.wyden.senate.gov/ ), Кори Букером (Cory Booker) и Иветт Кларк (Yvette Clarke). Цель законопроекта - решение проблемы предвзятости в алгоритмах искусственного интеллекта, включая введение наказаний для технологических компаний, которые не будут соблюдать эти правила.
Мой комментарий: В тексте самого законопроекта сказано, что его назначение – «Дать указание Федеральной комиссии по торговле (Federal Trade Commission требовать от организаций, которые используют, хранят или обмениваются персональными данными, проведения оценки воздействия автоматизированной системы принятия решений и оценки воздействия на неприкосновенность частной жизни и защиту персональных данных (data protection impact assessment).»
Законопроект потребует от компаний, выручка которых превышает 50 миллионов долларов (это не единственный предлагаемый критерий; также предлагается охватить компании, имеющие свыше миллиона клиентов, либо обслуживающих свыше миллиона потребительских устройств; и есть ещё несколько других критериев – Н.Х.), проводить оценку воздействия алгоритмов (algorithmic impact assessment) своего программного обеспечения. В ходе такого аудита будет проверяться, является ли использованный ИИ точным и справедливым, а также обеспечивает ли он информационную безопасность и сохранение неприкосновенности частной жизни.
Уайден сказал журналу FastCompany, что «компании должны нести ответственность за вредные технологии - в конце концов, запреты и ограничения, установленные компьютером, наносят такой же вред, как и политики запретов и ограничений, составленные человеком. Здравый смысл - требовать от компаний проведения аудита их систем, обеспечивая тем самым, что алгоритмы не будут причинять вред» (см. https://www.fastcompany.com/90599820/fighting-ai-bias-needs-to-be-a-key-part-of-bidens-civil-rights-agenda ).
Дик Вейсингер (Dick Weisinger)
Источник: блог компании Formtek
https://formtek.com/blog/algorithmic-accountability-making-software-fair-and-accurate/
Комментариев нет:
Отправить комментарий