Европейский институт телекоммуникационных стандартов (European Telecommunications Standards Institute, ETSI, http://www.etsi.org/ ) представил на публичное обсуждение проект базовых требований к кибербезопасности для моделей и систем искусственного интеллекта (ИИ).
Мой комментарий: Речь идёт о поступившем уже на утверждение проекте стандарта ETSI EN 304 223 V2.0.0 (2025-09) «Обеспечение безопасность искусственного интеллекта (ИИ); Базовые требования к кибербезопасности для моделей и систем ИИ» (Securing Artificial Intelligence (SAI); Baseline Cyber Security Requirements for AI Models and Systems) объёмом 16 страниц, см. https://portal.etsi.org/webapp/workprogram/Report_WorkItem.asp?WKI_ID=74952 , прямая ссылка на PDF-файл: https://www.etsi.org/deliver/etsi_en/304200_304299/304223/02.00.00_20/en_304223v020000a.pdf
Данный стандарт предоставляет заинтересованным сторонам в цепочке поставок ИИ четкие базовые требования к безопасности, которые помогают защитить системы ИИ.
Хотя эти базовые требования к ИИ не являются обязательными для исполнения, они представляют собой критически важный аспект стратегического управления системами ИИ, поскольку обеспечивают соответствующим заинтересованным сторонам в цепочке поставок ИИ четкие ожидания относительно того, что будет требоваться и на соответствие чему будет проводиться оценка перед внедрением или интеграцией систем ИИ в их рабочие процессы.
Группам стратегического управления ИИ следует обратить внимание на следующие моменты:
- Данные базовые требования не являются исчерпывающими: они представляют собой отправную точку, к которой группы по стратегическому управлению ИИ должны стремиться и адаптироваться в соответствии с применимыми к деятельности организации законодательно-нормативными требованиями;
- Данные базовые требования перечисляют только «что» следует обеспечить (требования), но не «как» это сделать (методология или стандарт). В дальнейшем этим группам предстоит воплотить в жизнь данные требования, предоставив более подробную информацию о конкретной методологии или стандартах, которым должны следовать или которых должны придерживаться разработчики и операторы ИИ.
- Избегайте простого копирования этих требований в тендерную документацию. Группы по стратегическому управлению ИИ должны обеспечить согласованность требований со своими внутренними процессами стратегического управления и соответствующей документацией, в частности, с положениями договоров.
Федерико Маренго (Federico Marengo)
Источник: сайт LinkedIn
https://www.linkedin.com/feed/update/urn:li:activity:7383396207357837312/



Комментариев нет:
Отправить комментарий