Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 28 октября 2021 года на блоге компании Formtek.
Алгоритмы искусственного интеллекта (ИИ) достигли невероятной точности при выявлении болезней и решении сложных проблем, однако настоящая проблема заключается в том, что мы не знаем точно, как ИИ делает то, что он делает. Многие из наиболее широко используемых и успешных методов искусственного интеллекта сложны и непрозрачны в плане описания того, как ИИ приходит к решениям.
Директор по здравоохранению медицинской сети Mount Sinai Джоэл Дадли (Joel Dudley, https://www.mountsinai.org/profiles/joel-dudley ) говорит, что «мы можем построить эти модели, но мы не знаем, как они работают». Эта непрозрачность результатов ИИ привела к проблеме доверия. Как мы можем быть уверены, что ИИ можно доверять в критически важных приложениях? (см. https://www.technologyreview.com/2017/04/11/5113/the-dark-secret-at-the-heart-of-ai/ ).
Профессор Массачусетского технологического института, Томми Яаккола (Tommi Jaakkola, http://people.csail.mit.edu/tommi/ ) полагает, что «это проблема, которая уже стала актуальной, а в будущем она станет гораздо более актуальной. Будь то принятие инвестиционный решений, медицинских решений или, может быть, военных решений, Вам бы не хотелось просто полагаться на метод «черного ящика»» (см. https://www.technologyreview.com/2017/04/11/5113/the-dark-secret-at-the-heart-of-ai/ ).
Кроме того, область применимости алгоритмов ИИ очень узка, и алгоритмы рушатся, когда сталкиваются с граничными ситуациями. Научный сотрудник университета Южной Калифорнии (University of Southern California, USC) Маянк Кеджривал (Mayank Kejriwal, http://kejriwalresearch.azurewebsites.net/ ) пишет, что «ИИ не предназначены для обработки весьма неожиданных ситуаций в открытом мире. Одной из причин может быть само использование современного обучения с подкреплением (reinforcement learning), которое в конечном итоге приводит к оптимизации ИИ для конкретной среды, в которой он проходил обучение. В реальной жизни соответствующих гарантий нет, и ИИ, созданный для реальной жизни, должен уметь адаптироваться к новизне открытого мира» (см. https://theconversation.com/embrace-the-unexpected-to-teach-ai-how-to-handle-new-situations-change-the-rules-of-the-game-157560 ).
Старший писатель издания WIRED Уилл Найт (Will Knight, https://www.wired.com/author/will-knight/ ) в статье для «Технологического обозрения» Массачусетского технологического университета (MIT Technology Review, https://www.technologyreview.com/2017/04/11/5113/the-dark-secret-at-the-heart-of-ai/ ) пишет, что «в результате всего этого встают поражающие воображение вопросы. По мере развития технологий мы можем вскоре преодолеть некоторый порог, за которым использование ИИ требует «прыжка веры» (это как в играх серии Assassin's Creed: прыгаем с крыши не глядя и верим, что как раз в этом месте стоит стог сена :) – Н.Х.). Безусловно, мы, люди, тоже не всегда можем по-настоящему объяснить свои мыслительные процессы, - но мы находим способы интуитивно доверять людям и оценивать их. Будет ли это возможно с машинами, которые думают и принимают решения иначе, чем люди? Мы никогда раньше не создавали машин, которые работают так, что этого не понимают их создатели. Насколько хорошо мы сможем общаться - и ладить - с интеллектуальными машинами, которые могут быть непредсказуемыми и непостижимыми?».
Дик Вейсингер (Dick Weisinger)
Источник: блог компании Formtek
https://formtek.com/blog/ai-dealing-with-advanced-intelligence-that-is-unpredictable-and-inscrutable/
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий