Хорошо, Вы прочли это в Интернете, значит, это должно быть правдой ... А если это не так, то кому мы можем доверять?
А как насчет искусственного интеллекта - Вы бы ему доверяли? Готовы ли вы довериться беспилотному транспортному средству ( https://towardsdatascience.com/why-deep-learning-is-not-a-silver-bullet-for-autonomous-vehicles-371c74c1a02b ), действующему на основе алгоритма, который сами его изобретатели не вполне понимают, хотя при этом он, похоже, хорошо работает?
Результаты опросов показывают, что, по мнению людей, искусственный интеллект (ИИ) и роботы заслуживают большего доверия. Например, опрос фирмы Oracle ( https://www.oracle.com/news/announcement/money-and-machines-021021.html ) показал, что две трети опрошенных предпочли бы, чтобы их финансы управлялись алгоритмом, а не человеком, - и более половины заявили, что алгоритм, вероятно, сможет выполнить работу лучше, чем они.
Аспирант университета Джорджии Эрик Богерт (Eric Bogert, https://www.terry.uga.edu/directory/mis/eric-bogert.html ) полагает, что «алгоритмы способны выполнять огромное количество задач, и список таких задач расширяется практически с каждым днем. Похоже, что есть предрасположенность в большей степени полагаться на алгоритмы по мере усложнения задач, и этот эффект оказывается сильнее, чем склонность полагаться на советы других людей» ( https://www.sciencedaily.com/releases/2021/04/210413114040.htm ).
Но, возможно, мы слишком доверчивы.
Доцент университета Джорджии Аарон Шектер (Aaron Schecter, https://www.terry.uga.edu/directory/mis/aaron-schecter.html ) отмечает, что «одна из распространенных проблем с ИИ - это когда он используется при принятии решения о предоставлении кредита или одобрение выдачи кому-либо ссуд. Хотя это субъективное решение, при его принятии принимается во внимание множество чисел, таких, как доход и кредитный рейтинг, поэтому люди считают, что это подходящая задача для алгоритма. Но мы знаем, что зависимость от алгоритма во многих случаях приводит к дискриминационной практике из-за неучтенных социальных факторов» ( https://www.sciencedaily.com/releases/2021/04/210413114040.htm ).
(C) Исследовательский центр Pew,
https://www.pewresearch.org/internet/2017/10/19/the-future-of-truth-and-misinformation-online/
Педагог и исследователь Аянна Ховард (Ayanna Howard, https://howard.ece.gatech.edu/ ) говорит: «если мы чрезмерно доверяем этим системам, и эти системы принимают решения, приводящие к разным результатам для разных групп людей - скажем, если система медицинской диагностики работает по-разному с женщинами и с мужчинами - то это значит, что мы сейчас создаем системы, которые усиливают существующее сегодня неравенство. Это проблема. И когда Вы подключаете ИИ-системы к решению вопросов, связанных со здоровьем или транспортом - и в той, и в другой сфере могул возникать ситуации, в которых решается вопрос жизни или смерти, - плохое решение может привести к непоправимым последствиям. Так что нам действительно нужно исправить такое положение дел» ( https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/ ).
Дик Вейсингер (Dick Weisinger)
Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-who-can-you-trust/
Комментариев нет:
Отправить комментарий