четверг, 18 апреля 2024 г.

МЭК: Обеспечение безопасности и надёжности искусственного интеллекта и доверия к нему

Данная заметка Майкла Муллейна (Michael A Mullane) была опубликована 7 марта 2024 года на сайте Международной электротехнической комиссии (МЭК) в бюллетене новостей и мнений МЭК (e-tech).

Международные игроки, начиная от ЮНЕСКО и ОЭСР (OECD) и заканчивая Европейским Союзом, разрабатывают сейчас системы стратегического управления искусственным интеллектом (ИИ). Они выступают за международное регулирование на том основании, что ИИ - это всемирное явление, выходящее за пределы национальных границ и юрисдикций. Эти различные инициативы и проекты направлены на то, чтобы обеспечить использование ИИ ответственным образом, уважая при этом права человека, человеческое достоинство и ценности. Весьма вероятно, что они будут использовать международные стандарты для достижения своих целей.

В нашей повседневной жизни мы пользуемся плодами ИИ в таких разнообразных областях, как здравоохранение, образование и промышленное производство. Однако существуют и серьёзные проблемы. Например, некоторые ИИ-системы, использовавшие данные и алгоритмы для оценки кредитоспособности потенциальных заёмщиков, оказались предвзятыми в отношении определенных групп людей. Аналогичным образом, системы искусственного интеллекта, используемые для отбора кандидатов на рабочие места, также могут быть предвзятыми, если алгоритмы плохо написаны или если наборы данных неполны. ИИ может генерировать высокотехнологичные фальшивые видеоматериалы, применяться для прослушивания, автоматизации кибератак и для множества других злонамеренных целей.

Международные стандарты уже пытаются решать эти и другие проблемы. В отличие от обязательных положений законодательства, стандарты, подобные тем, которые разрабатывают Международная электротехническая комиссия (МЭК – IEC) и Международная организация по стандартизации (ИСО – ISO), являются добровольными. Они способствуют сотрудничеству и кооперации между широким кругом заинтересованных сторон, поскольку создаются на основе консенсуса. Некоторые из них, весьма вероятно, лягут в основу будущих законодательно-нормативных требований.


Председатель технического подкомитета ИСО/МЭК JTC1/SC42 Ваэль Уильям Диаб (Wael William Diab)

Ваэль Уильям Диаб (Wael William Diab – на фото), возглавляющий технический подкомитет ИСО/МЭК SC42 по искусственному интеллекту, является специалистом по деловой и технологической стратегии, базирующимся в американской «Силиконовой долине». В своей роли в ИСО/МЭК он регулярно сотрудничает с другими международными организациями, включая ООН, Всемирную торговую организацию (World Trade Organization) и Европейскую Комиссию. Корреспондент новостного бюллетеня МЭК e-tech недавно побеседовал с ним о глобальных усилиях по управлению рисками и проблемами ИИ.

Вопрос: В стадии разработки находится ряд концепций стратегического управления, концепций нормативного регулирований и отраслевых требований. В какой степени работа по стандартизации в ИСО/МЭК дополняет эти усилия?

Ответ: Философия технического подкомитета SC42 всегда заключалась в том, чтобы принимать во внимание также и нетехнические вопросы, включая обеспокоенность общественности, и действительно анализировать условия и обстоятельства использования ИИ-технологии в ходе разработки наших стандартов.

Это означает несколько вещей. Во-первых, мы рассматриваем всю экосистему ИИ, включающую самые разные заинтересованные стороны. Важно подчеркнуть, что деятельность по международной стандартизации не только ведёт к созданию стандартов, но и предоставляет форум для обсуждения проблем на глобальном уровне. Во-вторых, когда мы начинаем рассматривать множество появляющихся требований к ИИ, будь то в Северной Америке или в Европе, в Азии или в Латинской Америке, в нашей работе непосредственно участвуют самые разные заинтересованные стороны. У нас также имеются весьма обширные партнёрские связи с международными организациями.

Важно отметить, что у ИИ имеются огромные перспективы, и он вызывает значительный интерес. Это позволяет вовлечь в совместное обсуждение разные группы и разные формы знаний. Как технический комитет по стандартизации, мы можем выступать в роли связующего звена между тем, что мы воспринимаем как общественные требования, часто выражаемые через концепции нормативного регулирования или международные концепции стратегического управления, - и техническими разработками, имеющими место в отрасли и на уровне продуктов. Наши стандарты действительно нацелены на преодоление разрыва между этими двумя мирами.

Вопрос: Мы с Вами говорили о правительствах и международных организациях, но как насчёт граждан? Стоит ли обычным людям беспокоиться по поводу ИИ?

Ответ: Я считаю, что людей совершенно точно должно волновать обеспечение того, чтобы создавались и использовались ответственные и заслуживающие доверия ИИ-системы, в мире, где мы взаимодействуем с ИИ чаще, чем когда-либо прежде. Например, я просыпаюсь каждый день и сначала смотрю на ленту сообщений в своём смартфоне. Прежде чем лечь спать, я тоже смотрю в свой смартфон. Многие из наших сегодняшних профессий очень тесно интегрированы с этими технологиями. Наши дети работают с ними. Я считаю, что очень важно иметь заслуживающие доверия ИТ-системы и ответственные системы искусственного интеллекта.

Я считаю, что многие проблемы сегодня связаны с тем, как ИИ-системы принимают решения, поэтому с момента своего создания подкомитет SC42 потратил довольно много времени на то, чтобы у нас были стандарты для поддержки этичных, заслуживающих доверия и надёжных ИИ-систем. Сюда входит всё, начиная от рассмотрения более традиционных проблем безопасности и защиты персональных данных, связанных с ИИ-системами, и до изучения контекста использования этой технологии, ожиданий в отношении её поведения, и - возможно, самое главное – способности провести аудит или сертификацию системы, чтобы обеспечить возможность ей доверять. Ключевым моментом здесь является то, что мы сосредотачиваем внимание на существующих у технологии проблемах, которые могут помешать раскрыть весь её потенциал в плане служения интересам общества.

Вопрос: Мы все слышали истории о том, что ИИ некорректно применялся при найме на работу или ипотечном кредитовании, часто дискриминируя женщин и цветных людей. Решают ли стандарты ИСО/МЭК проблемы такого рода?

Ответ: Безусловно! Непреднамеренная предвзятость ИИ-системы может повлечь за собой последствия в будущем. Один аспект, в котором ИИ-системы несколько отличаются от более традиционных ИТ-систем, - это их способность к обучению, с которой связаны большие потенциальные возможности, но которая также может привести к тому, что ИИ-система «собьётся с верного пути». Чтобы решить эту проблему и обеспечить такое поведение ИИ-система, какое было задумано, мы потратили немало времени и усилий на создание портфеля международных стандартов. Эти стандарты затрагивают разнообразные аспекты, от возможности доверять до обеспечения возможности учёта этических соображений в конкретном приложении, будь то такие вопросы,  как предвзятость, о которой Вы упомянули, или подслушивание.

Мы смотрим на проблему с разных точек зрения. Мы смотрим на ИИ с точек зрения приложения, разработчика и внедряющей организации. Например, в дополнение ко всей работе по обеспечению надёжности и доверия, у нас имеется всесторонний набор стандартов, посвящённых качеству данных, используемых в ИИ-системе. Мы также рассматриваем вычислительные аспекты. У нас есть стандарты, в которых рассматривается аспект стратегического управления ИИ. Это лишь несколько примеров того, как мы работаем. Мы объединяем всё это в так стандарте системы менеджмента ИИ, который организации смогут использовать для аудита, оценки соответствия и/или сертификации имеющейся у них ИИ-системы.

С этими проблемами чрезвычайно важно разобраться с самого начала. В весь наш портфель стандартов мы интегрируем этические соображения. Еще одним ключевым аспектом является наша способность разрабатывать стандарты, применимые в различных вертикальных областях. То, что организационно мы подчинены Объединенному техническому комитету ИСО и МЭК JTC1, даёт нам уникальную возможность взаимодействовать не только с внешними организациями, но также и с техническими комитетами, которые разрабатывают стандарты для вертикальных приложений. Иногда мы сотрудничаем непосредственно в рамках выполнения совместных проектов. Мы также поддерживаем своих партнёров, предоставляя им стандарты, на которые они могут опереться при обеспечении того, что их приложение соответствует ожиданиям, является ответственным, заслуживающим доверия, этичным и может обеспечить ожидаемую отдачу.

Вопрос: Можете ли Вы рассказать нам, кем являются эксперты подкомитета SC42? Откуда они и какую работу они выполняют?

Ответ: В настоящее время в нашей работе по тематике ИИ участвуют более 64 стран, более трети из которых считаются развивающимися странами. Это имеет особое значение, поскольку отражает тот факт, что в подкомитете представлены не только страны, которые преимущественно создают и развивают эту технологию, но также имеется и хорошее представительство регионов и стран, которые главным образом будут пользователями этой технологии. В данном процессе у каждого есть право голоса.

Представленные в подкомитете заинтересованные стороны действительно весьма разнообразны. Например, среди экспертов у нас есть инженеры, специалисты по обработке данных и маркетологи. У нас также представлено множество различных точек зрения, происходящих как из сферы законодательно-нормативного регулирования, так и из областей права, образования и из научно-исследовательской среды. У нас есть изучающие ИИ-системы специалисты по этике, которые также становятся важной группой заинтересованных лиц.

В общей сложности в нашей программе работ участвует около 800 экспертов. Наконец, что, возможно, даже более важно, - когда мы, помимо опыта работы, смотрим на многообразие людей, мы видим, что среди есть люди всех возрастов. У нас в равной степени представлены различные категории. Например, среди глав национальных делегаций зачастую поровну представлены мужчины и женщины. Я считаю, что это способствует созданию более качественных стандартов, поскольку мы учитываем все эти различные и многообразные точки зрения. Это также способствует более всестороннему обсуждению и рассмотрению стоящей перед нами проблемы, заключающейся в обеспечении широкого, но ответственного внедрения ИИ.

Интервью брал Майкл Муллейн (Michael A Mullane)

Источник: Бюллетень МСА «e-Tech»
https://etech.iec.ch/issue/2024-01/keeping-artificial-intelligence-safe-and-trustworthy

Комментариев нет:

Отправить комментарий