четверг, 6 апреля 2017 г.

Европарламент о связанных с «большими данными» рисках


В целом Европейский парламент (European Parliament) особым уважением в Евросоюзе не пользуется, поскольку это - в общем-то бесправная «говорильня», на фоне которой даже наша Дума выглядит весьма прилично. Тем не менее, время от времени Европарламент выпускает документы, которые заслуживают внимания и могут быть интересны для наших специалистов.

14 марта 2017 года Европарламент принял резолюцию 2016/2225(INI) о последствиях технологий «больших данных» для фундаментальных прав граждан, в плане обеспечения неприкосновенности частной жизни и защиты персональных данных, отсутствия дискриминации, обеспечения безопасности и поддержки деятельности правоохранительных органов (European Parliament resolution of 14 March 2017 on fundamental rights implications of big data: privacy, data protection, non-discrimination, security and law-enforcement, см. http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-%2f%2fEP%2f%2fTEXT%2bTA%2bP8-TA-2017-0076%2b0%2bDOC%2bXML%2bV0%2f%2fEN ).

В этом 10-страничном документе весьма ярко и детально перечислены связанные с технологией «больших данных» риски, в том числе и те, о которых обычно принято помалкивать.

Под «большими данными» понимается «сбор, анализ и непрерывное накопление больших объёмов данных (включая персональные данные) из разнообразных источников, которые подвергаются автоматической обработке с использованием компьютерных алгоритмов и продвинутых методов обработки данных применительно как к сохраненным, так и непрерывно передаваемым данным, с целью выявления определенных корреляций, тенденций и закономерностей (аналитика больших данных)».

Подчеркивается, что «в ряде случаев применение технологий больших данных включает обучение приложений из области искусственного интеллекта (таких, как нейронные сети) и статистических моделей, с целью предсказания определенных событий и поведения, при том, что данные, на которых проводится такое обучение, часто сомнительного качества и не являются нейтральными.»

Отмечается, что «прогресс коммуникационных технологий и повсеместное распространение электронных устройств, следящих устройств, социальных сетей, веб-взаимодействия и сетей, в том числе устройств, передающих информацию без вмешательства человека, привело к созданию огромных, постоянно разрастающихся баз данных, на основе которых с использованием передовых методов обработки и аналитики становится возможным получить беспрецедентное знание о поведении людей, их частной жизни и об обществе в целом.»

Прямо говорится, что на «большие данные» все больше полагаются разведслужбы и правоохранительные органы как стран-членов Евросоюза, так и иных стран; в то время, как законодательно-нормативное регулирование этого вопроса является явно недостаточным. Также непрерывно расширяется использование больших данных для целей деловой деятельности, науки и образования и т.д. Растет соответствующий рынок, и темп его ежегодного роста оценивается в 40%.

В качестве основного инструмента, позволяющего найти компромисс между широким внедрением по сути дела «разведывательной» технологии больших данных и обеспечением защиты конфиденциальной информации называются псевдонимизация либо обезличивание данных и их шифрование. Возможность извлечения чувствительной информации путем обработки больших объёмов безобидных данных ведет к размыванию границ между конфиденциальной и открытой информацией. Важная деталь: предлагается в будущих законодательно-нормативных актах прямо запретить поставщикам продуктов и услуг встраивание или способствование встраиванию «чёрных ходов» (backdoors) в средства шифрования. Также резолюция высказывается против того, чтобы требовать (за исключением отдельных ситуаций) от поставщиков продуктов и услуг повсеместного активного мониторинга поведения клиентов и выявления возможной незаконной деятельности.

Признается, что внедрение «больших данных» сдвигает баланс реальной власти в пользу крупных корпораций и создает возможности для появления новых монополий и злоупотребления властью.

Очень важно, с моей точки зрения, что в резолюции подмечена необходимость учитывать не только количество данных, но и качество как самих данных, так и алгоритмов, применяемых для их обработки. В резолюции даже используется термин «алгоритмическая дискриминация» (algorithmic discrimination) – это ситуация, когда применение алгоритмов приводит к неявной дискриминации отдельных лиц и целых групп. В этой связи поднимается вопрос о прозрачности как самих алгоритмов, так и используемых для их обучения наборов данных.

Особо отмечается, что уже сегодня алгоритмы и аналитика данных существенно влияют на то, какую информацию люди получают, и выражается озабоченность по поводу возможного негативного влияния данного фактора на демократические процессы.

По мнению авторов резолюции, основой для доверия к «большим данным» может стать исполнение требований действующего законодательства о защите персональных данных, соблюдение технических и этических стандартов.

В целом документ очень красочно описывает связанные с большими данными возможности и риски, но намного слабее в части возможных конструктивных действий, нередко просто обращаясь к совести и порядочности заинтересованных сторон. Предлагаемые меры ориентированы преимущественно на защиту интересов отдельных граждан, а не общества в целом, и не отражают реальности уже возникшего общества всеобщей слежки и контроля. С моей точки зрения, стоило бы подумать и о том, чтобы эту реальность в определенных случаях принять и признать, предложив гражданам в качестве утешительной «морковки» большую безопасность, большее материальное благополучие, более качественное образование, здравоохранение и т.д. – точно так же, как в своё время наши предки приняли идею всеобщей паспортизации, прописки и т.п.

Источник: сайт Европарламента
http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-%2f%2fEP%2f%2fTEXT%2bTA%2bP8-TA-2017-0076%2b0%2bDOC%2bXML%2bV0%2f%2fEN

Комментариев нет:

Отправить комментарий