воскресенье, 4 декабря 2022 г.

Насколько можно доверять искусственному интеллекту?

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 4 ноября 2022 года на блоге компании Formtek.

Многие учреждения и коммерческие организации ускоряют своё движение в сторону внедрения искусственного интеллекта ради улучшения процессов, решений и результатов проектирования. Во многих случаях способность ИИ выполнять задачи просто поразительна. Но вот начиная с какого момента можно начать доверять ИИ-алгоритму, особенно в случае критически-важных процессов и в тех ситуациях, когда находятся под угрозой жизни людей? В какой момент мы можем доверять ИИ настолько, чтобы позволить ему пилотировать самолеты или принимать медицинские решения?

Бывший исследователь из компании IBM Рон Познански (Ron Poznansky,  https://www.linkedin.com/in/ron-poznansky/ ) считает, что «есть несколько очень веских причин, по которым люди пока что не доверяют ИИ-инструментам. Во-первых, есть весьма острая проблема предвзятости и объективности. Недавние громкие инциденты вполне заслуженно привлекли значительное внимание средств массовой информации, что помогло сделать проблему предвзятости машинного обучения широко известной общественности. Организации обоснованно сомневаются в том, стоит ли внедрять системы, которые могут в конечном итоге привести к получению расистских, сексистских или иным предвзятых выводов» ( https://www.techrepublic.com/article/how-much-can-we-trust-ai-how-to-build-confidence-before-large-scale-deployment/ ).

Взглянем на опыт IBM использованием в сотрудничестве с доктором Андерсоном технологии искусственного интеллекта IBM WATSON ( https://www.scientificamerican.com/article/people-dont-trust-ai-heres-how-we-can-change-that/ ) в качестве инструмента. для диагностики рака. Если выданный WATSON диагноз соответствовал рекомендациям онкологов, те часто считали, что ИИ не дает ничего сверх того, что они уже и так знают или ожидают; а когда диагноз отклонялся от мнения онколога - и поскольку он не соответствовал ожидаемому результату – то появлялся значительный скептицизм и складывалось мнение о том, что диагноз и рекомендованное лечение были ошибочными.

Результаты эксперимента с использованием WATSON заставили исследователей вернуться назад, с тем, чтобы посмотреть, что они могут сделать для повышения доверия пользователей. Они выделили три области, в которых необходимо предпринять усилия, чтобы повысить доверие пользователей к ИИ:

  • Необходимо продемонстрировать, что технология безопасна, правильно реализована и хорошо работает;

  • ИИ должен работать так, как ожидается, выдавая позитивно воспринимаемые результаты;

  • ИИ должен придерживаться этических норм и его решения должны быть справедливыми.

Чарльз Тауэрс-Кларк (Charles Towers-Clark, https://www.forbes.com/sites/charlestowersclark/ ) в статье для журнала Forbes пишет, что «нелегко внушить людям доверие, особенно в широком масштабе и имея дело с такой преобразующей технологией, как искусственный интеллект. Слепая вера в способность ИИ творить добро уже привела к серьезным ошибкам, и более логичный, взвешенный и осторожный подход к такой мощной технологии может лишь помочь ИИ творить больше добра в мире, и в результате еще больше помочь человечеству» ( https://www.forbes.com/sites/charlestowersclark/2021/01/25/can-we-trust-ai-when-ai-asks-for-human-help-part-one/?sh=430e27504ee4 ).

Дик Вейсингер (Dick Weisinger)

Источник: блог компании Formtek
https://formtek.com/blog/artifical-intelligence-how-much-can-it-be-trusted/

Комментариев нет:

Отправить комментарий