28 января 2019 года Сайт Совета Европы сообщил о том, что по случаю отмечавшегося в этот день Дня защиты персональных данных (Data Protection Day) Консультативный комитет «Конвенции 108» Совета Европы (это «Конвенция о защите частных лиц в отношении автоматизированной обработки данных личного характера» в отношении автоматической обработки персональных данных» - ETS No.108 Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data, https://www.coe.int/en/web/conventions/full-list/-/conventions/treaty/108 , текст Конвенции на русском языке доступен по адресу https://www.coe.int/en/web/conventions/full-list/-/conventions/rms/0900001680078c46 ) - опубликовал любопытный документ T-PD(2019)01 «Руководство по защите персональных данных при использовании искусственного интеллекта» (Guidelines on artificial intelligence and data protection) объёмом 4 страницы.
Руководство интересно тем, что даёт определённое представление о том, как Евросоюз собирается регулировать данную сферу. Не секрет, что технологии искусственного интеллекта (ИИ) не только представляют потенциальную угрозу для неприкосновенности частной жизни, но и часто сознательно проектируются для профилирования людей. Одновременно европейское законодательство и без того является очень жёстким, и оно потенциально способно очень существенно придушить развитие ИИ в Европе.
Руководство, как отмечается в аннотации на сайте, «направлено на то, чтобы помочь создателям политик, разработчикам искусственного интеллекта (ИИ), производителям продуктов и поставщикам услуг в обеспечении того, чтобы ИИ-приложения не подрывали право на защиту персональных данных.»
Рекомендации писали юристы, которых, как мне кажется, не слишком заботило, являются ли их требования реализуемыми на практике. Требования же (в составе которых, сразу скажу, много хорошего и разумного) включают в том числе следующие положения:
- «ИИ-приложения во всех случаях должны в полной мере соблюдать права субъектов данных»:
- «ИИ-приложения должны допускать осмысленный контроль со стороны субъектов данных над обработкой данных и над взаимосвязанным воздействием на физических лиц и общество»
- «На всех стадиях обработки, включая сбор данных, разработчики и производители ИИ и поставщики услуг должны внедрить подход «запроектированной защиты прав человека» (human rights by-design) и избегать любой потенциальной предвзятости (в том числе неумышленной или неявной), риска дискриминации и иных негативных последствий для прав человека и фундаментальных свобод субъектов данных».
- «Все продукты и услуги должны проектироваться таким образом, чтобы обеспечивалось право физических лиц на то, чтобы существенно затрагивающие их решения не основывались исключительно на автоматизированной обработке данных, без принятия во внимание их мнения».
- «Следует информировать субъекты данных о том, что они взаимодействуют с ИИ-приложением. Они должны иметь право получать сведения о логике, лежащей в основе операций обработки данных с применением ИИ, которые затрагивают их интересы.»
- «Должно быть обеспечено право возражать в связи обработкой на основе технологий, которые воздействуют на мнение и личное развитие физических лиц»
Думаю, проблемы и риски ИИ авторы документа понимают очень даже хорошо. Но я с трудом себе представляю, каким образом могут быть удовлетворены все эти «хотелки», особенно при обработке данных в интересах правоохранительных органов и регуляторов. Меня также беспокоит то, что сейчас, когда ИИ-системы все больше становятся реальностью, никто не хочет вспоминать знаменитые в своё время и глубокие по смыслу три закона роботехники Айзека Азимова, см. https://ru.wikipedia.org/wiki/Три_закона_роботехники …
Источник: сайт Совета Европы
https://www.coe.int/en/web/portal/-/data-protection-day-new-guidelines-on-artificial-intelligence
Комментариев нет:
Отправить комментарий