воскресенье, 8 октября 2023 г.

МСЭ: Проект Рекомендации ITU-T X «Требования по безопасности для систем искусственного интеллекта»

Как сообщил сайт Международного союза электросвязи (МСЭ – ITU), 8 сентября на встрече 17 исследовательской группы (ITU-T Study Group 17) «Безопасность» (Security) было принято решение об открытии нового проекта Рекомендации ITU-T серии X «Требования по безопасности для систем искусственного интеллекта» (Security requirements for AI systems).

Целью проекта является предоставление набора подробных и полных требований по безопасности в помощь соответствующим заинтересованным сторонам. Работа выполняется в рамках исследовательской темы Q15/17 «Обеспечение безопасности для/посредством нарождающихся технологий, включая квантовую безопасность» (Security for/by emerging technologies including quantum-based security).

Во вводной части документа сказано следующее:

Краткое содержание

Искусственный интеллект (ИИ) и машинное обучение (МО) всё чаще используются целыми отраслями, которые активно применяют цифровые технологии. ИИ позволяет отраслям предоставлять клиентам дифференцированные продукты и услуги, и помогает деловым организациям более эффективно принимать решения и улучшать показатели оперативной деятельности.

Существует потребность в идентификации угроз безопасности, возникающих в результате расширяющегося использования ИИ, и в требованиях по безопасности, позволяющих эффективно бороться с этими угрозами в ИИ-системах на протяжении всего их жизненного цикла систем, позволяя тем самым обеспечить безопасное использование и эксплуатацию ИИ-систем. Чтобы более эффективно выявлять угрозы безопасности и предоставить набор подробных требований по безопасности в дополнение к высокоуровневым мерам по смягчению рисков, описанным в готовящемся стандарте ISO/IEC 27090 «Кибербезопасность - Искусственный интеллект - Руководство по устранению угроз безопасности и сбоев в системах искусственного интеллекта» (Cybersecurity - Artificial Intelligence - Guidance for addressing security threats and failures in artificial intelligence systems, см. https://www.iso.org/standard/56581.html ), необходимо полное понимание моделей ИИ-систем и жизненного цикла ИИ-систем.

Жизненный цикл ИИ-системы искусственного включает из 6 стадий: планирование, подготовка данных, проектирование модели, обучение/разработка модели, развертывание модели, эксплуатация/мониторинг и техническая поддержка модели, - которые отличаются от тех, которые указаны в документах ОЭСР (OECD). Данный проект Рекомендации основан на модели ИИ-системы, описанной в ещё одно готовящемся международном стандарте ISO/IEC 27091 «Кибербезопасность и неприкосновенность частной жизни – Искусственный интеллект – Защита персональных данных» (Cybersecurity and Privacy - Artificial Intelligence - Privacy protection, см. https://www.iso.org/standard/56582.html ).

Таким образом, в проекте Рекомендации будет представлен всесторонний набор подробных требований по безопасности, способствующий эффективной борьбе с угрозами безопасности в ИИ-системах в организациях, которые используют и эксплуатируют такие системы. Данный документ может быть использован организациями, вовлечёнными в полный жизненный цикл ИИ-систем.

Область применения

В настоящем проекте Рекомендации описан жизненный цикл ИИ-систем, состоящий из шести стадий, и основанная на нём модель ИИ-системы. В документе называются заинтересованные стороны, ответственные за каждую стадию жизненного цикла ИИ-системы ИИ, и описаны угрозы безопасности с учётом шести стадий жизненного цикла ИИ-системы. В дополнение к высокоуровневым мерам по смягчению риска, описанным в стандарте ISO/IEC 27090, данный проект Рекомендации предоставляет в помощь соответствующим заинтересованным сторонам всесторонний набор подробных требований по безопасности.

Источник: сайт МСЭ
https://www.itu.int/md/T22-SG17-230829-TD-PLEN-1485/en

Комментариев нет:

Отправить комментарий