понедельник, 11 апреля 2022 г.

Обобщение искусственного интеллекта: Можно ли научить алгоритмы сожалеть?

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 22 февраля 2022 года на блоге компании Formtek.

Был там. Сделал это. Так на сегодняшний день работает большинство алгоритмов искусственного интеллекта (ИИ). Рецепт заключается в том, чтобы собрать как можно больше примеров - возможно, тысячи или даже миллионы предыдущих случаев чего-либо - и затем на основе этих примеров научить алгоритм ИИ тому, как следует классифицировать или диагностировать объект или событие.

Алгоритм ИИ учится, нарабатывая обширное понимание того, как люди справлялись с определенным типом задач в прошлом. Результат? Алгоритмы, которые могут распознавать рак по рентгеновским снимкам ( https://ai-med.io/ai-in-medicine/its-not-about-outperforming-human-but-ai-generalization/ ) или идентифицировать изображения, с точностью часто более высокой, чем на это способен отдельный человек.

Однако в то время, как достигаемая точность очень высока, результаты являются очень специфическими и для ограниченного круга задач. Просить эти алгоритмы сделать что-либо за пределами данного круга задач бесполезно, это просто не работает. Ввиду этого исследователи ИИ ищут способы сделать ИИ «умнее», посредством придания ему способности использовать и экстраполировать свои знания о похожих, хотя и не идентичных, прошлых обучениях. Более общий ИИ, применимый в отношении событий и объектов, с которым ИИ ранее не имел дела, называется «обобщением искусственного интеллекта» (AI generalization).

Ограниченное обобщение (near generalization) не слишком далеко расширяет рамки возможного. Например, алгоритм может быть обучен на рентгеновских снимках, целиком и полностью относящихся к населению, проживающему в США, а затем применён в отношении набора рентгеновских снимков, сделанных с использованием оборудования другого типа и при обследовании населения, проживающего в другой стране. Можно ожидать, что алгоритм может работать не так хорошо в случае его применения к набору данных, отличного от типа данных, используемых при первоначальном обучении.

Исследователи из Университета Карнеги-Меллона ( https://www.infoq.com/news/2021/06/cmu-ai-generalization/ ) обнаружили, что использование и обучение алгоритмов, которые изначально были «зашумленными», может улучшить результаты при применении их к популяциям, которые несколько отличаются от набора данных, использовавшегося при первоначальном обучении.

Однако создать более умный ИИ, который действительно способен учиться, гораздо сложнее, чем осуществить «ограниченное обобщение».

Аспирант Массачусетского технологического института Люк Хьюитт (Luke Hewitt, https://bcs.mit.edu/users/lbhmitedu ) говорит, что «Интуитивно предполагать, в какой степени разумной должна быть машина, либо иметь возможность быть таковой, основываясь исключительно на одной задаче – это плохая идея. Машины 1950-х для игры в шашки годов поражали исследователей, и многие считали их огромным скачком на пути к мышлению человеческого уровня, - однако теперь мы понимаем, что достичь человеческих или сверхчеловеческих способностей в этой игре гораздо проще, чем достичь общего интеллекта человеческого уровня. На самом деле, даже самые способные из людей могут быть легко побеждены поисковым алгоритмом с простой эвристикой. Эффективность человеческого или сверхчеловеческого уровня в рамках одной задачи не обязательно является ступенькой к почти-человеческой эффективности при решении большинства задач» ( https://towardsdatascience.com/is-deep-learning-already-hitting-its-limitations-c81826082ac3 ).

Несмотря на сложность проблемы, другие исследователи, например, работающие в проекте DeepMind компании Google, пытаются создать более обобщенные алгоритмы ИИ. Их подход предполагает обучение методом проб и ошибок. Алгоритм начинает с минимального набора навыков, а затем путем проб и ошибок в конечном итоге может выучить то, что нужно для успешного решения проблемы.

Группа проекта DeepMind ( https://techxplore.com/news/2021-08-techniques-ai-versatile.html ) экспериментировала с робототехникой и компьютерным зрением. Цель заключалась в перемещении робота из начальной в конечную точку, при этом по пути есть небольшая ступенька, которая блокирует его движение. В конечном итоге робот обнаруживает, что он может переместить плоский объект в место, где он может затем использовать его в качестве пандуса, чтобы взобраться наверх и преодолеть ступеньку. Исследователи выполнили сотни тысяч таких сценариев и смогли научить робота решать возникающие задачи с использованием базовых навыков передвижения.

Но действительно ли это более обобщенная методика, или же это алгоритм с более широким репертуаром обучения? Работающий в реальных условиях алгоритм, которому необходимо реагировать в режиме реального времени на новую ситуацию, не может позволить себе роскошь «проиграть» свои действия при одном и том же новом наборе условий тысячи раз, прежде чем принять окончательное решение. Алгоритмы могут ничем не отличаться от людей, которые, столкнувшись с новой проблемой, уже пост-фактум хотели бы принять другое решение. Можно ли научить ИИ сожалеть?

Дик Вейсингер (Dick Weisinger)

Источник: блог компании Formtek
https://formtek.com/blog/ai-generalization-can-algorithms-be-taught-to-regret/

Комментариев нет:

Отправить комментарий