Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 3 февраля 2023 года на блоге компании Formtek.
Число приложений искусственного интеллекта (ИИ) растёт, затрагивая все области нашей жизни. Существует бесчисленное множество примеров полезного применения ИИ. Но должны ли мы доверять ИИ-алгоритмам в критически-важных для жизни вопросах? Как мы можем быть уверены, что ИИ-алгоритмы всегда будут делать оптимальный выбор, будут свободны от сбоев и принятия необъяснимо неразумных решений?
Можем ли мы доверить ИИ (см. https://venturebeat.com/2022/06/24/what-is-ai-governance-2/ ) установление расценок на такие продукты, как страхование, вынесение адекватных судебных приговоров по уголовным делам или пилотирование пассажирских самолётов в условиях плохой погоды?
В подготовленном фирмой Deloitte отчёте (см. https://www2.deloitte.com/us/en/insights/industry/financial-services/explainable-ai-in-banking.html ) объясняется, что «то, что ИИ-решения представляют собой загадочные «чёрные ящики», является одним из самых больших препятствий, мешающих организациям реализовывать свои ИИ-стратегии. Модели машинного обучения, перед которыми ставится задачи выявления закономерностей в данных, предсказания и решение сложных проблем, часто являются непрозрачными, скрывающими те механизмы, что находятся «под капотом». Развертывание таких моделей в отсутствие возможности объяснить их результаты создаёт риски».
Пока что применение ИИ в основном не регламентируется законодательством. Законодательство США (см. https://www.forbes.com/sites/forbestechcouncil/2022/06/21/preventing-harmful-ai-bias-with-fairness-through-awareness/?sh=100c79bc6c83 ), такое как Закон об алгоритмической подотчетности (Algorithmic Accountability Act, https://www.congress.gov/bill/117th-congress/house-bill/6580/text?r=1&s=1 ), стремится установить стандарты для обеспечения безопасности, этичности и прозрачности результатов применения ИИ. Но, скорее всего, такое законодательство - это только начало.
В ходе проведенного компанией Forrester исследования ( https://www.businesswire.com/news/home/20220615005210/en/New-Study-Finds-AI-Benefits-Hinge-on-Explainability-and-Automation-with-a-Human-Touch ) выяснилось, что неуверенность в ИИ-алгоритмах и возможности им доверять приводят к опасениям, которые могут заблокировать принятие и развертывание технологии. По мнению 70% опрошенных организаций, очень важно включать людей в процессы искусственного интеллекта и машинного обучения с целью снижения потенциальных рисков.
Генеральный директор и соучредитель компании Inrule Рик Чомко (Rik Chomko, https://inrule.com/leadership/rik-chomko/ ) говорит, что «Представители высшего руководства организаций постоянно оценивают ИИ как критически важную технологию для будущего своего бизнеса, однако 2/3 организаций испытывают трудности с объяснением решений, которые принимают их ИИ-системы. Встроенная, изначально заложенная в ИИ-систему объяснимость позволит высшим руководителям и учёным, не являющимся узкими специалистами по работе с данными, быстро понимать, почему было принято каждое конкретное решение, и быть уверенными в результатах интеллектуальной автоматизации» ( https://www.businesswire.com/news/home/20220615005210/en/New-Study-Finds-AI-Benefits-Hinge-on-Explainability-and-Automation-with-a-Human-Touch ).
Дик Вейсингер (Dick Weisinger)
Источник: блог компании Formtek
https://formtek.com/blog/ai-and-decision-making-humans-need-to-understand-why/
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий