суббота, 23 сентября 2023 г.

Стратегическое управление ИИ: Истинная нейтральность алгоритмов будет труднодостижимой

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 8 августа 2023 года на блоге компании Formtek.

Под стратегическим управлением искусственным интеллектом (ИИ) понимается применение алгоритмов искусственного интеллекта ответственным и управляемым образом. Стратегическое управление ИИ (AI Governance) выходит за рамки обеспечения этичного использования ИИ и также включает управление рисками и исполнение законодательно-нормативных требований. Например, компания Cisco выделяет следующие элементы стратегического управления ИИ: «прозрачность, справедливость, подотчетность, неприкосновенность личной жизни (защита персональных данных), безопасность и надежность», см. https://blogs.cisco.com/security/our-responsible-approach-to-governing-artificial-intelligence

Многие коммерческие организации сейчас начинают переходить от пилотных проектов к промышленной эксплуатации ИИ. Пока эти организации разбирались с тем, каким образом они могли бы использовать ИИ для автоматизации и инноваций, они часто мало задумывались о вопросах стратегического управления. Однако теперь, когда планируется и осуществляется развертывание ИИ-систем в режиме промышленной эксплуатации, начинают возникать вопросы.

Директор по технологиям компании Appian Майк Бекли (Mike Beckley, https://appian.com/resources/leadership/team/michael-beckley.html ) в интервью Тому Таулли (Tom Taulli) для журнала Forbes отметил, что «ИИ-проекты редко координируются в масштабах компании, и группы по аналитике данных часто изолированы от разработки приложений. И теперь регулирующие органы начинают задавать вопросы, на которые коммерческие организации не знают, как ответить» ( https://www.forbes.com/sites/tomtaulli/2020/10/10/ai-artificial-intelligence-governance-how-to-get-it-right/?sh=6ae1c5ec745f ).

Фонд Рокфеллера ( https://www.rockefellerfoundation.org/ai-governance-bold-action-and-novel-approaches/ ) полагает, что «множество приложений ИИ и потенциально масштабные последствия этого делают стратегическое управление ИИ сложным и зависящим от варианта его использования. В связи с этим стратегическое управление требует смелых действий и новаторских смешанных подходов, полагающихся на стимулы, добрую волю и опыт».

Однако в конечном итоге доказать нейтральность и этичность будет очень трудно.

Пишущий о технологиях Питер Уэйнер (Peter Wayner, https://en.wikipedia.org/wiki/Peter_Wayner ) в статье для издания VentureBeat отмечает, что «наибольшее значение стратегическое управление ИИ имеет там, где принимаемые решения являются наиболее спорными. Хотя алгоритмы могут обеспечить по крайней мере видимость нейтральности, они не могут просто взять и устранить конфликты между людьми. Если люди недовольны результатом, то надлежащий механизм стратегического управления сможет лишь снизить остроту конфликта… Успех стратегического управления ограничен размером и масштабами проблем, которые ИИ должен решить. Более масштабные, влекущие более глубокие последствия проблемы порождают более глубокие конфликты. Просить ИИ принимать решения, влияющие на здоровье, благосостояние или карьеру людей означает заведомо идти на то, что какие-то люди будут недовольны».

Дик Вейсингер (Dick Weisinger)

Источник: блог компании Formtek
https://formtek.com/blog/ai-governance-achieving-true-algorithm-neutrality-will-be-elusive/


Комментариев нет:

Отправить комментарий