Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 26 октября 2018 года на блоге компании Formtek.
Многие недавние достижения в использовании искусственного интеллекта (ИИ) были ошеломляющими. Однако главное критическое замечание в отношении искусственного интеллекта заключается в том, что часто выдаваемые им результаты невозможно в полной мере объяснить или воспроизвести. Даже сами разработчики ИИ-алгоритмов не способны объяснить, каким образом программа пришла к конкретному результату или рекомендуемому решению.
То, что многие ИИ-алгоритмы представляют собой «чёрные ящики», привело к сомнениям в части применения искусственного интеллекта в критически важных приложениях. Существуют правовые и этические последствия продвижения алгоритма в промышленную эксплуатацию и его широкого условия в отсутствие понимания того, как алгоритм работает.
Абхиджит Татте (Abhijit Thatte, https://www.linkedin.com/in/abhijit-thatte/ ), вице-президент по искусственному интеллекту компании Aricent, недавно отметил (см. https://www.cmswire.com/digital-experience/what-is-explainable-ai-xai/ ), что «в условиях, когда системы на основе искусственного интеллекта все чаще принимают такие решения, как одобрение выпуска кредитной карты, включение тормозов при приближении движущегося на автопилоте автомобиля к препятствию или рекомендации по условно-досрочному освобождению посаженных в тюрьму преступников, для людей стало жизненно важным понимать механизм принятия решений, заложенный в лежащий в основе системы ИИ, чтобы быть уверенными в том, что ИИ принимает точные и справедливые решения».
Эта неопределенность при использовании искусственного интеллекта побудила группу исследователей из ИИ-сообщества разработать алгоритмы, классифицируемые как «Объяснимый ИИ» (Explainable AI, или XAI, см. https://en.wikipedia.org/wiki/Explainable_Artificial_Intelligence ) - алгоритмы, дающие людям возможность лучше разбираться в том, почему алгоритм пришел к конкретному выводу или результату, обеспечивая своего рода «алгоритмическая подотчетность».
В число факторов, которые «Объяснимый ИИ» стремится раскрывать, входят:
- Почему было рекомендовано именно конкретное решение, в отличие от прочих;
- Каковы уровни доверия к рекомендациям;
- Какие критерии были использованы в процессе принятия решения;
- Каковы сильные и слабые стороны алгоритма.
Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-attempts-to-make-black-box-algorithms-explainable/
Комментариев нет:
Отправить комментарий