Банк России в информационном письме от 9 июля 2025 года №ИН-016-13/91 сообщил, что по итогам мониторинга и анализа текущих практик разработки и применения искусственного интеллекта кредитными организациями, некредитными финансовыми организациями, лицами, оказывающими профессиональные услуги на финансовом рынке, субъектами национальной платежной системы, - Банк России разработал Кодекс этики в сфере разработки и применения искусственного интеллекта на финансовом рынке (Кодекс).
Банк России рекомендует применять Кодекс при разработке и применении искусственного интеллекта:
- кредитными организациями;
- иностранными банками, осуществляющими деятельность на территории Российской Федерации через свои филиалы;
- некредитными финансовыми организациями, лицами, оказывающими профессиональные услуги на финансовом рынке;
- субъектами национальной платежной системы, в частности при оказании услуг физическим и юридическим лицам.
Банк России также рекомендует обмениваться опытом и совместно вырабатывать лучшие практики соблюдения Кодекса.
Содержание документа следующее:
1. Цели и принципы разработки и применения искусственного интеллекта на финансовом рынке;
2. Принцип человекоцентричности;
3. Принцип справедливости;
4. Принцип прозрачности;
5. Принцип безопасности, надежности и эффективности;
6. Принцип ответственного управления рисками.
В рамках организации управления рисками при разработке и применении искусственного интеллекта организациям рекомендуется разработать и утвердить правила управления рисками искусственного интеллекта, являющиеся составной частью применяемых документов об управлении рисками в организации, или в виде самостоятельного документа, а также назначить лицо или подразделение, ответственное за соблюдение указанных правил и соответствие их настоящему Кодексу (п.6.2).
Организациям рекомендуется при управлении рисками ИИ обеспечить следующие процессы (п.6.3):
- учет применяемых моделей ИИ;
- выявление рисков ИИ;
- оценка и присвоение уровня риска ИИ;
- мониторинг и контроль рисков ИИ;
- минимизация выявленных рисков ИИ;
- реагирование на реализовавшиеся риски ИИ (риск-события);
- ведение базы риск-событий.
В рамках учета применяемых моделей искусственного интеллекта организациям рекомендуется вести централизованный учет моделей ИИ и случаев их применения с учетом присвоенного уровня риска ИИ (п.6.4).
В рамках выявления рисков искусственного интеллекта организациям рекомендуется документировать информацию (п.6.5):
- о порядке разработки ИИ, включая описание процесса разработки ИИ, использованных при разработке наборов данных;
- об условиях применения ИИ;
- о лицах, ответственных за применение ИИ в организации,
а также анализировать указанную информацию на предмет наличия рисков искусственного интеллекта.
В рамках ведения базы риск-событий организациям рекомендуется выявлять риск-события и осуществлять их регистрацию с описанием риск-события, обстоятельств, повлекших наступление риск-события, а также приведением сведений о мероприятиях, направленных на минимизацию последствий риск-события, и статусе исполнения таких мероприятий (п.6.11).
Мой комментарий: В Кодекс заложены требования к документированию практики использования ИИ при его использовании в деятельности на финансовом рынке. Этот процесс только начинается, и уже сейчас ясно, что политики и практики применения ИИ требуют тщательного продуманного документирования для того, чтобы минимизировать реально существующие риски.
В то же время организациям недостаточно простого требования о документировании; им нужны более конкретные указания и рекомендации, включая установление сроков хранения создаваемой документации.
Источник: Консультант Плюс
https://www.consultant.ru/cons/cgi/online.cgi?req=doc;base=LAW;n=509514
Комментариев нет:
Отправить комментарий