среда, 7 ноября 2018 г.

Искусственный интеллект: Попытки сделать объяснимой работу алгоритмов


Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 26 октября 2018 года на блоге компании Formtek.

Многие недавние достижения в использовании искусственного интеллекта (ИИ) были ошеломляющими. Однако главное критическое замечание в отношении искусственного интеллекта заключается в том, что часто выдаваемые им результаты невозможно в полной мере объяснить или воспроизвести. Даже сами разработчики ИИ-алгоритмов не способны объяснить, каким образом программа пришла к конкретному результату или рекомендуемому решению.

То, что многие ИИ-алгоритмы представляют собой «чёрные ящики», привело к сомнениям в части применения искусственного интеллекта в критически важных приложениях. Существуют правовые и этические последствия продвижения алгоритма в промышленную эксплуатацию и его широкого условия в отсутствие понимания того, как алгоритм работает.

Абхиджит Татте (Abhijit Thatte, https://www.linkedin.com/in/abhijit-thatte/ ), вице-президент по искусственному интеллекту компании Aricent, недавно отметил (см. https://www.cmswire.com/digital-experience/what-is-explainable-ai-xai/ ), что «в условиях, когда системы на основе искусственного интеллекта все чаще принимают такие решения, как одобрение выпуска кредитной карты, включение тормозов при приближении движущегося на автопилоте автомобиля к препятствию или рекомендации по условно-досрочному освобождению посаженных в тюрьму преступников, для людей стало жизненно важным понимать механизм принятия решений, заложенный в лежащий в основе системы ИИ, чтобы быть уверенными в том, что ИИ принимает точные и справедливые решения».

Эта неопределенность при использовании искусственного интеллекта побудила группу исследователей из ИИ-сообщества разработать алгоритмы, классифицируемые как «Объяснимый ИИ» (Explainable AI, или XAI, см. https://en.wikipedia.org/wiki/Explainable_Artificial_Intelligence ) - алгоритмы, дающие людям возможность лучше разбираться в том, почему алгоритм пришел к конкретному выводу или результату, обеспечивая своего рода «алгоритмическая подотчетность».

В число факторов, которые «Объяснимый ИИ» стремится раскрывать, входят:
  • Почему было рекомендовано именно конкретное решение, в отличие от прочих;
  • Каковы уровни доверия к рекомендациям;
  • Какие критерии были использованы в процессе принятия решения;
  • Каковы сильные и слабые стороны алгоритма.
Дик Вейсингер (Dick Weisinger)

Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-attempts-to-make-black-box-algorithms-explainable/

Комментариев нет:

Отправить комментарий