пятница, 10 декабря 2021 г.

Искусственный интеллект: Кому можно доверять?

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 19 ноября 2021 года на блоге компании Formtek.

Хорошо, Вы прочли это в Интернете, значит, это должно быть правдой ... А если это не так, то кому мы можем доверять?

А как насчет искусственного интеллекта - Вы бы ему доверяли? Готовы ли вы довериться беспилотному транспортному средству ( https://towardsdatascience.com/why-deep-learning-is-not-a-silver-bullet-for-autonomous-vehicles-371c74c1a02b ), действующему на основе алгоритма, который сами его изобретатели не вполне понимают, хотя при этом он, похоже, хорошо работает?

Результаты опросов показывают, что, по мнению людей, искусственный интеллект (ИИ) и роботы заслуживают большего доверия. Например, опрос фирмы Oracle ( https://www.oracle.com/news/announcement/money-and-machines-021021.html ) показал, что две трети опрошенных предпочли бы, чтобы их финансы управлялись алгоритмом, а не человеком, - и более половины заявили, что алгоритм, вероятно, сможет выполнить работу лучше, чем они.

Аспирант университета Джорджии Эрик Богерт (Eric Bogert, https://www.terry.uga.edu/directory/mis/eric-bogert.html ) полагает, что «алгоритмы способны выполнять огромное количество задач, и список таких задач расширяется практически с каждым днем. Похоже, что есть предрасположенность в большей степени полагаться на алгоритмы по мере усложнения задач, и этот эффект оказывается сильнее, чем склонность полагаться на советы других людей» ( https://www.sciencedaily.com/releases/2021/04/210413114040.htm ).

Но, возможно, мы слишком доверчивы.

Доцент университета Джорджии Аарон Шектер (Aaron Schecter, https://www.terry.uga.edu/directory/mis/aaron-schecter.html ) отмечает, что «одна из распространенных проблем с ИИ - это когда он используется при принятии решения о предоставлении кредита или одобрение выдачи кому-либо ссуд. Хотя это субъективное решение, при его принятии принимается во внимание множество чисел, таких, как доход и кредитный рейтинг, поэтому люди считают, что это подходящая задача для алгоритма. Но мы знаем, что зависимость от алгоритма во многих случаях приводит к дискриминационной практике из-за неучтенных социальных факторов» ( https://www.sciencedaily.com/releases/2021/04/210413114040.htm ).


Педагог и исследователь Аянна Ховард (Ayanna Howard, https://howard.ece.gatech.edu/ ) говорит: «если мы чрезмерно доверяем этим системам, и эти системы принимают решения, приводящие к разным результатам для разных групп людей - скажем, если система медицинской диагностики работает по-разному с женщинами и с мужчинами - то это значит, что мы сейчас создаем системы, которые усиливают существующее сегодня неравенство. Это проблема. И когда Вы подключаете ИИ-системы к решению вопросов, связанных со здоровьем или транспортом - и в той, и в другой сфере могул возникать ситуации, в которых решается вопрос жизни или смерти, - плохое решение может привести к непоправимым последствиям. Так что нам действительно нужно исправить такое положение дел» ( https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/ ).

Дик Вейсингер (Dick Weisinger)

Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-who-can-you-trust/ 

Комментариев нет:

Отправить комментарий