четверг, 25 октября 2018 г.

Беседы об управлении документами, эпизод 4: Искусственный интеллект, подотчётность и архивы, часть 1


Заметка авторитетного австралийского специалиста Касси Финдлей (Cassie Findlay) была опубликована 6 октября 2018 года на сайте дискуссионной группы «Круглый стол по вопросам управления документами» (Recordkeeping Roundtable).

В очередном эпизоде бесед об управлении документами мы встречаемся с Эллен Брод (Ellen Broad), автором книги «Сделано людьми: Состояние ИИ» (Made by Humans: The AI Condition – обложку см. на рис.), - о том, как быстро развивающиеся технологии, такие, как искусственный интеллект и машинное обучение, начинают применяться в деловой деятельности, в государственном управлении и в обществе, а также о различных последствиях их внедрения. Эллен и представитель «Круглого стола по вопросам управления документами» (Recordkeeping Roundtable) Касси Финдлей обсуждают реальные результаты принятия решений машинами, подотчётность за использование таких систем, роли управления документами и архивного дела, и изменение отношения к неприкосновенности частной жизни в условиях экономики данных.

Книгу «Сделано людьми: Состояние ИИ» можно приобрести в издательстве Университета Мельбурна (Melbourne University Press) по адресу https://www.mup.com.au/books/made-by-humans-paperback-softback ), а также во всех крупных книжных онлайн-магазинах.
Об Эллен Брод

Эллен является руководителем отдела по технической реализации стандартов пользовательских данных (Head of Technical Delivery, Consumer Data Standards) в осуществляемом Организацией научно-технического содружества австралийского Содружества (Commonwealth Scientific and Industrial Research Organisation, CSIRO – австралийская государственная организация, см. https://www.csiro.au/ - Н.Х) проекте Data61 (который позиционирует себя в качестве ведущей австралийской инновационной научно-исследовательской сети во вопросам доверия к данным и технологий их обработки, см. https://www.data61.csiro.au/ - Н.Х.).

В конце 2018 года она вернулась в Австралию из Англии, где возглавляла отдел политик Института открытых данных (Open Data Institute, ODI) - международной некоммерческой организации, основанной сэром Тимом Бернерсом-Ли (Tim Berners-Lee) и сэром Найджелом Шадболтом (Nigel Shadbolt).

В Англии Эллен также была экспертом-советником по данным члена кабинета министров правительства Великобритании Элизабет Трасс (Elisabeth Truss). В прошлом она также исполняла обязанности менеджера по цифровой политике и проектам Международной федерация библиотечных ассоциаций и учреждений, ИФЛА (International Federation of Library Associations and Institutions, IFLA, Голландия) и исполнительного директора Австралийского цифрового альянса (Australian Digital Alliance).

Эллен писала и выступала об искусственном интеллекте, открытых данных и проблемах коллективного использования данных в изданиях «Нью сайентист» (New Scientist) и «Гардиан» (Guardian), в программах австралийской радиостанции ABC Radio National «Большие идеи» (Big Ideas) и «Будущее время» (Future Tense), а также на конференции SXSW (от South by Southwest – в штате Техас, США – Н.Х.). Помимо своей основной работы, Эллен вместе с руководителем ODI Джени Теннисоном (Jeni Tennison) разработала настольную игру по тематике открытых данных Datopolis, в которую играют в 19 странах (см. также https://boardgamegeek.com/boardgame/206759/datopolis - думаю, это предложение в резюме сохранилось по недосмотру, поскольку данная игра уже благополучно забыта – Н.Х.).
Мой комментарий: аудиозапись доступна на странице по адресу https://rkroundtable.org/2018/10/06/recordkeeping-roundcasts-episode-4-ai-accountability-and-archives/

Касси Финдлей: Я очень рада беседовать сегодня с Эллен Брод. Эллен является автором книги «Сделано людьми: Состояние ИИ» (выше дана ссылка на сайт, где есть информация о книге и о том, где её купить). Я от всей души рекомендую эту книгу, она появилась очень своевременно. Посмотрите на этические и социальные последствия ускоряющегося «галопа» к использованию искусственного интеллекта и машинного обучения во многих различных аспектах нашей жизни. И, конечно же, у таких людей, как я, – а также, надеюсь, у слушателей и читателей наших «бесед», - которые занимаются управлением документами, имеется множество вопросов, связанных с внедрением этой технологии, заставляющих нас задуматься о том, что представляет наша работа сегодня и какой она потенциально может стать в будущем, начиная от сохранения свидетельств того, как эти системы создаются, и вплоть до усилий по обеспечению подотчетности в отношении решений о развертывании технологии.

Итак, Эллен, добрый день, и большое спасибо за то, что Вы присоединились ко мне.

Эллен Брод: Большое спасибо за приглашение.

Касси Финдлей: У меня есть три вопроса, и, как мне кажется, первый из них, вероятно, даст Вам возможность помочь нашим слушателям понять, о чем именно мы говорим, потому что не у всех из нас имеются достаточные базовые знания.

Итак, первый из моих трех вопросов следующий: Вы в своей книге пишете о том, что мы, судя по всему, переходим от использования систем ИИ в менее ответственных областях к их применению в более ответственных приложениях. Можете ли вы немного подробнее объяснить, что Вы под этим понимаете, и привести нам несколько примеров более ответственных систем?

Эллен Брод: Конечно. Возможно, стоит немного отступить назад и сначала сказать о контексте, в котором я говорю о более и менее ответственных системах, поскольку книга посвящена не «вообще» искусственному интеллекту (существует множество разных технологий, которые охватываются этим зонтичным термином – например, виртуальная реальность, робототехника, беспилотные летательные аппараты-дроны…).

В контексте книги, меня интересует всё более широкое использование данных для составления прогнозов и принятия решений, которые затрагивают людей. Мы всё чаще и чаще делаем это в нашей повседневной жизни. Таким образом, менее ответственные системы, о которых я упоминаю, - это системы, помогающие нам, например, выбрать следующий материал для просмотра в Netflix; или же информация, которую Google использует для формирования того, что мы видим в результатах поиска.

В определенных случаях даже эти примеры Вы бы не назвали «малоответственными применениями». Например, идёт всё более активное обсуждение того, как Google формирует информацию, которую он нам выдаёт; но мы сейчас переходим от этих систем, которые по существу используются для индивидуализированных прогнозов о контенте, который нам, возможно, будет интересно посмотреть; о других книгах, которые могли бы нас заинтересовать, раз мы купили данную книгу, - к тому, чтобы начать использовать те же методы для принятия высокоответственных решений (higher stakes decisions). Это решения о том, что мы представляем из себя как личность - заслуживаем ли мы доверия, хорошо ли мы подходим для работы, на которую претендуем, стоит ли нас принимать в университет и какие специальности нам следует изучать.

И причина, по которой я называю эти решения «ответственными», это то, что они влекут за собой последствия в реальном мире. Я имею в виду, то, что Netflix, рекомендуя мне ужасный фильм и не понимая толком мои предпочтения, не воздействует на мою жизнь в такой степени, как ошибочная оценка пригодности к выполнению работы, поэтому в последнем случае последствия более значительны, а прогнозы такого рода действительно очень трудно делать. Предсказания, например, о работе, в которой мы можем быть заинтересованы или которая нам подходит, определяются целым рядом факторов, и наши прошлые предпочтения и опыт являются лишь частью этих факторов. Именно это я имею в виду, говоря о переходе от менее ответственных систем к более ответственным, а также о необходимости в большей степени сосредоточить внимание на более ответственных системах.

Касси Финдлей: Прочитав Вашу книгу, я знаю, что Вы немало путешествовали по миру, общались со многими людьми, и Вы упомянули множество очень специфических примеров. Не могли бы Вы привести пример такой системы, решающей серьёзные вопросы вроде подбора работы или принятия решения по заявлению о приёме в университет – тех, что уже реально работают?

Эллен Брод: Одна из самых ключевых по важности систем, о котором я рассказываю в своей книге, о которой много говорят, и которая действительно привлекла внимание к сложностям этих решений - это алгоритм оценки COMPAS, используемый для прогноза того, кто из преступников вероятнее всего совершит преступления повторно. Это пример решений, в которой сотни переменных используются для оценки вероятности того, что человек станет рецидивистом, - однако на практике было обнаружена определенная предвзятость результатов работы этого алгоритма. Вероятность рецидива оказалась завышенной у афро-американцев и занижена у белых преступников.

Причины этого сложны и трудно выявляются, и решения этой проблемы также сложны. Сейчас в области машинного обучения всё больше обсуждается вопрос о том, как количественно оцениваете такого рода результаты работы системы, как можно пытаться повлиять на них или, по крайней мере, объяснить, почему результаты получаются именно такими. Я также затронула растущее использование прогнозов при найме на работу, однако COMPAS, вероятно, является в книге наиболее ярким примером высокоотвественной системы.

(Окончание следует, см. https://rusrim.blogspot.com/2018/10/4-2.html )

Беседу вела Касси Финдлей (Cassie Findlay)

Источник: сайт «Recordkeeping Roundtable»
https://rkroundtable.org/2018/10/06/recordkeeping-roundcasts-episode-4-ai-accountability-and-archives/

Комментариев нет:

Отправка комментария