понедельник, 3 октября 2022 г.

Искусственный интеллект: Как научить алгоритмы разучиваться

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 30 августа 2022 года на блоге компании Formtek.

Важно уметь разучиваться. Это верно, например, в отношении вредных личных привычек, - но здесь мы говорим об обученных алгоритмах искусственного интеллекта (ИИ).

Чаще всего предъявляются требования к обученному ИИ-алгоритму «откатить» последствия обучения на конкретных данных ( https://www.wired.com/story/machines-can-learn-can-they-unlearn/ ) ввиду того, например, что эти данные считаются предвзятыми или же из-за того, что законодательство требует, чтобы ассоциированные с гражданами данные (т.е. персональные данные – Н.Х.) не использовались за пределами страны.

Требование о том, чтобы заставить ИИ разучиться, выполнить очень сложно. Обучение ИИ требует времени, оно исключительно ресурсоемко и построено таким образом, что, как правило, крайне сложно или практически невозможно выполнить шаги в обратном направлении, с тем, чтобы исключить влияние и последствия конкретных данных, использованных при первичном обучении.

Аспирант Стэнфордского университета Антонио Джинарт (Antonio Ginart, https://profiles.stanford.edu/tony-ginart ) пишет, что «для многих стандартных моделей машинного обучения единственный способ полностью удалить отдельные данные [точнее, вызванные ими последствия в ходе обучения – Н.Х.] - это переобучить всю модель «с нуля» на остальных данных, что часто нецелесообразно с вычислительной точки зрения» (  https://www.researchgate.net/publication/334413661_Making_AI_Forget_You_Data_Deletion_in_Machine_Learning ).

Группа в Пенсильванском университете под руководством профессора Аарона Рота (Aaron Roth) пытается дать ответ на вопрос: «Можем ли мы убрать все последствия чьих-либо данных, если эти лица потребуют удалить их, - но при этом избежать расходов на полное переобучение с самого начала? Как это обычно бывает в молодой области исследований, существует разрыв между тем, к чему эта область стремится, и тем, что мы знаем, как делать сейчас». Предстоит проделать большую работу, в частности, найти метод, который можно было бы применить к различным типам алгоритмов.

Доцент кафедры биомедицинской информатики Стэнфордского университета Джеймс Зоу (James Zou, https://biox.stanford.edu/people/james-zou ) в интервью изданию Register отметил, что «удаление затруднительно, поскольку большинство моделей машинного обучения представляют собой сложные «чёрные ящики», и поэтому неясно, как на самом деле используется отдельный элемент данных или набор данных» ( https://www.theregister.com/2019/07/15/ai_delete_data/ ).

Похожий, и при этом взаимосвязанный вопрос - это попытки количественно определить, насколько точность результатов ИИ-алгоритма снижается в результате удаления данных из обучающего набора данных.

Дик Вейсингер (Dick Weisinger)

Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-teaching-algorithms-to-unlearn/

Комментариев нет:

Отправить комментарий