воскресенье, 9 апреля 2023 г.

Искусственный интеллект: Проблема здравого смысла

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 28 февраля 2023 года на блоге компании Formtek.

Здравый смысл – он имеется у большинства людей, которых Вы знаете, но у машин его нет, и это проблема для искусственного интеллекта. Компьютеры хороши в части автоматизации обработки чисел и управления правилами и отношениями между объектами, но они не способны делать простые прогнозы об окружающем их мире. Они не понимают принципа причины и следствия.

Мой комментарий: С моей точки зрения, компьютеры по большей части «понимают» то, что они запрограммированы понимать. При решении конкретных задач они программируются на то, чтобы знать последствия определённых действий и быть в состоянии прогнозировать изменения – пусть даже они не способны к философскому осознанию причинно-следственных связей (к которому также не способно и подавляющее большинство людей).

Декан инженерного факультета Университета Южной Калифорнии в Витерби (Viterbi) Яннис Йортсос (Yannis Yortsos, https://viterbi.usc.edu/directory/faculty/Yortsos/Yannis ) считает, что «сегодня ИИ-системы могут общаться с нами с целью заказать для нас книгу, найти песню или пропылесосить нам полы. Но им не хватает здравого смысла, чтобы понимать, что мы читаем книги для обучения и удовольствия, что музыка нас расслабляет, а находиться в прибранном доме нам куда приятнее. Учитывающее взаимодействие с людьми мышление должно применяться для решения проблемы здравого смысла для ИИ, по мере того, как мы закладываем основы для того, чтобы ИИ был ответственным и этичным и мог оказывать существенное позитивное влияние на общество» ( https://news.usc.edu/195978/commonsense-artificial-intelligence-ai/ ).

Генеральный директор Института искусственного интеллекта имени Аллена Орен Эциони (Oren Etzioni, https://allenai.org/team/orene ) отмечает, что «здравый смысл - это «тёмная материя» искусственного интеллекта. Он во многом определяет то, что мы делаем и что нам нужно сделать, и при этом мы не в состоянии сколько-нибудь внятно его описать» ( https://www.newyorker.com/tech/annals-of-technology/can-computers-learn-common-sense ).

Некоторые исследователи полагают, что ИИ-модели, подобные тем, что используются в машинном обучении, и огромные модели вроде GPT-3, используемые при обработке естественного языка, в конечном итоге эволюционируют и станут настолько мощными, что здравый смысл окажется просто ещё одним параметром, который появляется вместе с повышенной сложностью.

Однако пионер современного ИИ и руководитель направления ИИ в компании Meta Янн Ле Кун (Yann LeCun, https://en.wikipedia.org/wiki/Yann_LeCun ) говорит: «в эту идею о том, что по мере масштабирования нынешних больших языковых моделей в конечном итоге появится искусственный интеллект человеческого уровня - я в неё вообще не верю, ни на одну секунду. Эти большие модели просто манипулируют словами и изображениями, у них нет прямого опыта познания мира» (см. https://www.technologyreview.com/2022/06/24/1054817/yann-lecun-bold-new-vision-future-ai-deep-learning-meta/ ).

Дик Вейсингер (Dick Weisinger)

Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-the-challenge-of-common-sense/

Комментариев нет:

Отправить комментарий