(Окончание, предыдущую часть см. http://rusrim.blogspot.com/2024/01/2.html )
Этические принципы и управление документами
Этические принципы включены в большинство рамочных концепций использования ИИ с целью обеспечить, чтобы причиненный в результате использования ИИ-технологий вред в полной мере принимался во внимание, а потенциальный вред - предотвращался.
В приведенной ниже таблице представлены этические принципы из Политики этики ИИ штата Новый Южный Уэльс (NSW AI Ethics Policy, https://www.digital.nsw.gov.au/policy/artificial-intelligence/artificial-intelligence-ethics-policy ), а также некоторые рекомендации по управлению документами, которые помогут обеспечить соответствие этим принципам.
Таблица 3 (начало)
Таблица 3 (окончание)
Инструменты документирования ИИ-технологий
Ниже перечислены некоторые полезные инструменты документирования ИИ-технологий, включая связанные с ними процессы. Поскольку эти инструменты были разработаны для иных юрисдикций, не забудьте адаптировать их для использования в штате Виктория.
- Отчёт об алгоритмической прозрачности (Algorithmic Transparency Report, https://www.gov.uk/government/collections/algorithmic-transparency-recording-standard-hub ): инструмент для документирования ИИ-технологий, фокусирующий внимание на используемом алгоритме;
- «Методическое руководство по применению Концепцию менеджмента рисков, связанных с искусственным интеллектом» (AI RMF Playbook, https://airc.nist.gov/AI_RMF_Knowledge_Base/Playbook ) американского Национального института стандартов и технологий (NIST): инструмент, помогающий проводить анализ, выявлять необходимую информацию и документировать результаты на протяжении всего жизненного цикла ИИ.
- Таксономия надёжности и доверенности ИИ (Taxonomy of Trustworthiness, https://cltc.berkeley.edu/wp-content/uploads/2023/01/Taxonomy_of_AI_Trustworthiness.pdf ): инструмент, помогающий выявлять и документировать вред и предубеждения.
- Оценка соответствия capAI (capAI Conformity Assessment, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4064091 ): ориентированный на данные инструмент для оценки и документирования соответствия закону Евросоюза об искусственном интеллекте;
- Оценка алгоритмического воздействия (Algorithmic Impact Assessment): инструмент для количественной оценки риска и определения уровня воздействия ИИ-технологий в первую очередь связанного с автоматическим принятием решений - Инструмент ( https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html ) и Руководство ( https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html );
- Стратегическое управление универсальным ИИ (Governing General Purpose AI, https://www.stiftung-nv.de/de/publikation/governing-general-purpose-ai-comprehensive-map-unreliability-misuse-and-systemic-risks ): инструмент, помогающий понять связанные с универсальным ИИ риски ненадежности, некорректного использования и системный риск, а также помогающий документировать основанные на политиках решения.
- Концепция обеспечения качества ИИ штата Новый Южный Уэльс (NSW AI Assurance Framework, https://www.digital.nsw.gov.au/policy/artificial-intelligence/nsw-artificial-intelligence-assurance-framework ): инструмент для документирования внедрения ИИ-технологии на протяжении всего жизненного цикла проекта;
- Объяснение принятых ИИ решений (Explaining Decisions of AI, https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/artificial-intelligence/explaining-decisions-made-with-artificial-intelligence/ ): инструмент для описания связанных с ИИ-технологиями сервисов, решений и процессов, с тем, чтобы их можно было объяснить другим лицам.
Прочие соображения
ИИ-технологии постоянно эволюционируют, включая то, как, когда и для чего они используются, на что они способны, а также нормативно-правовую среду, в рамках которой они используются.
Одним из часто упоминаемых этических принципов является объяснимость, позволяющая взаимодействующим с использующей ИИ организацией людям понять, как ИИ повлиял на их взаимодействие. Для этого требуется документированное понимание того, как «работают» процессы и технологии в отношении конкретных типов документов/данных.
При информационном взаимодействии с заинтересованными сторонами может быть полезно:
- Раскрыть, когда и какие ИИ-технологии используются, для чего они используются и как они работают на протяжении всего своего жизненного цикла;
- Уведомить взаимодействующих с порождающим (генеративным) ИИ и другими ИИ-технологиями/приложениями физических лиц об этом, а также предоставить им информацию о возможности отказа от использования ИИ при принятии связанных с ними решений и возможности подать запрос о проведении ведомственной проверки. Включите сюда сведения обо всех используемых технологиях, представляющих собой «черные ящики»;
- Объяснить использованные процессы и технологии, которые привели к принятию решения, выполнению действия или иному затрагивающему заинтересованную сторону результату.
Источник: сайт PROV
https://prov.vic.gov.au/recordkeeping-government/a-z-topics/AI
Комментариев нет:
Отправить комментарий