вторник, 19 августа 2025 г.

Кодекс этики в сфере разработки и применения искусственного интеллекта на финансовом рынке

Банк России в информационном письме от 9 июля 2025 года №ИН-016-13/91 сообщил, что по итогам мониторинга и анализа текущих практик разработки и применения искусственного интеллекта кредитными организациями, некредитными финансовыми организациями, лицами, оказывающими профессиональные услуги на финансовом рынке, субъектами национальной платежной системы, - Банк России разработал Кодекс этики в сфере разработки и применения искусственного интеллекта на финансовом рынке (Кодекс).

Банк России рекомендует применять Кодекс при разработке и применении искусственного интеллекта: 

  • кредитными организациями; 

  • иностранными банками, осуществляющими деятельность на территории Российской Федерации через свои филиалы; 

  • некредитными финансовыми организациями, лицами, оказывающими профессиональные услуги на финансовом рынке; 

  • субъектами национальной платежной системы, в частности при оказании услуг физическим и юридическим лицам. 

Банк России также рекомендует обмениваться опытом и совместно вырабатывать лучшие практики соблюдения Кодекса.

Содержание документа следующее:

1.    Цели и принципы разработки и применения искусственного интеллекта на финансовом рынке;

2.    Принцип человекоцентричности;

3.    Принцип справедливости;

4.    Принцип прозрачности;

5.    Принцип безопасности, надежности и эффективности;

6.    Принцип ответственного управления рисками.

В рамках организации управления рисками при разработке и применении искусственного интеллекта организациям рекомендуется разработать и утвердить правила управления рисками искусственного интеллекта, являющиеся составной частью применяемых документов об управлении рисками в организации, или в виде самостоятельного документа, а также назначить лицо или подразделение, ответственное за соблюдение указанных правил и соответствие их настоящему Кодексу (п.6.2).

Организациям рекомендуется при управлении рисками ИИ обеспечить следующие процессы (п.6.3):

  • учет применяемых моделей ИИ;

  • выявление рисков ИИ;

  • оценка и присвоение уровня риска ИИ;

  • мониторинг и контроль рисков ИИ;

  • минимизация выявленных рисков ИИ;

  • реагирование на реализовавшиеся риски ИИ (риск-события);

  • ведение базы риск-событий.

В рамках учета применяемых моделей искусственного интеллекта организациям рекомендуется вести централизованный учет моделей ИИ и случаев их применения с учетом присвоенного уровня риска ИИ (п.6.4).

В рамках выявления рисков искусственного интеллекта организациям рекомендуется документировать информацию (п.6.5):

  • о порядке разработки ИИ, включая описание процесса разработки ИИ, использованных при разработке наборов данных; 

  • об условиях применения ИИ; 

  • о лицах, ответственных за применение ИИ в организации, 

а также анализировать указанную информацию на предмет наличия рисков искусственного интеллекта.

В рамках ведения базы риск-событий организациям рекомендуется выявлять риск-события и осуществлять их регистрацию с описанием риск-события, обстоятельств, повлекших наступление риск-события, а также приведением сведений о мероприятиях, направленных на минимизацию последствий риск-события, и статусе исполнения таких мероприятий (п.6.11).

Мой комментарий: В Кодекс заложены требования к документированию практики использования ИИ при его использовании в деятельности на финансовом рынке. Этот процесс только начинается, и уже сейчас ясно, что политики и практики применения ИИ требуют тщательного продуманного документирования для того, чтобы минимизировать реально существующие риски.

В то же время организациям недостаточно простого требования о документировании; им нужны более конкретные указания и рекомендации, включая установление сроков хранения создаваемой документации.

Источник: Консультант Плюс
https://www.consultant.ru/cons/cgi/online.cgi?req=doc;base=LAW;n=509514

Комментариев нет:

Отправить комментарий