пятница, 23 октября 2020 г.

Высокотехнологичные фальсификации (deepfakes): Попытки понять, что настоящее, а что - нет

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 7 октября 2020 года на блоге компании Formtek.

Высокотехнологические фальшивки (дипфейки, deepfakes) - это видео или изображения, измененные таким образом, что сложно установить их неаутентичность. В подобных фальшивках знаменитости и общественные деятели часто показаны говорящими вещи или появляющимися в ситуациях, которые являются мистификацией, имитацией реальности и/или попыткой обмануть зрителя.

Мой комментарий: От обычных подделок высокотехнологические фальшивки отличает использование самых современных информационных технологий, включая средства и методы на основе искусственного интеллекта, позволяющие, в том числе, убедительно сымитировать биометрические особенности жертвы (черты лица, поведение, голос и манеру говорить, походку и т.д.). Отчасти это те же технологии, что используются в современном кинематографе и театре :) Проблема усугубляется тем, что в настоящее время – особенно в мобильных устройствах – массово используются «фильтры улучшения изображений», способные сильно «приукрашивать» или изменять реальность; так что встаёт вопрос и о том, где кончается допустимое ретуширование и начинается подделка.

Дипфейки эволюционировали от ранних дней переделок фотографий в фотошопе до всё более сложных способов модификации видео и изображений. Проблема здесь в том, что людям может быть трудно определить, они имеют они дело с подлинным или с синтетическим объектом.

Чтобы бороться с дипфейками, компании Facebook, Microsoft и Amazon предложили разработчикам попробовать решить «проблему выявления дипфейков» (см.  https://ai.facebook.com/datasets/dfdc/ ) и разработать алгоритм, способный определить, является ли видео или изображение поддельным, или же нет.

Результаты конкурса оказались не слишком радужными. Участникам конкурса было предоставлено 124 тысячи фальшивых видео в качестве материалов для обучения их алгоритмов. Даже работая с этими уже известными видеоматериалами, лучшие алгоритмы смогли обнаружить подделки в 85% случаев. Когда же алгоритмы были протестированы с использованием другого набора из 10 тысяч других видео, точность лучшего из алгоритмов упала до 65%.

Профессор Калифорнийского университета в Беркли Хани Фарид (Hany Farid, см. https://www.ischool.berkeley.edu/people/hany-farid ) сказал в интервью новостному агентству Wired, что «применение таких алгоритмов в помощь модераторам-людям - это нормально и хорошо, но, очевидно, их уровень точности пока что далёк от желаемого. Вам же нужна точность, когда допускается порядка одной ошибки на миллиард, что-то в этом роде» (см.  https://www.wired.com/story/deepfakes-not-very-good-nor-tools-detect/ ).

Менеджер по техническим исследованиям в компании Google Эндрю Галли (Andrew Gully, https://www.linkedin.com/in/andrew-gully-91ab6b100/ ) считает, что «мы уже знаем, насколько трудно убедить людей, имеющих собственные предубеждения. Выявить дипфейк-видео достаточно сложно, но куда легче легко по сравнению с тем, как трудно убедить людей в том, во что они не хотят верить» ( https://spectrum.ieee.org/tech-talk/artificial-intelligence/machine-learning/facebook-ai-launches-its-deepfake-detection-challenge ).

Подлинное изображение (слева) и фальсифицированное (справа), https://spectrum.ieee.org/tech-talk/artificial-intelligence/machine-learning/facebook-ai-launches-its-deepfake-detection-challenge

Директор Facebook по технологиям Майк Шрепфер (Mike Schroepfer) отмечает, что «урок, который я усвоил в течение последних пары лет на горьком опыте, заключается в том, что мне следует быть готовым заранее и не позволять застигнуть себя врасплох. Я предпочту быть действительно готовым к массе скверных вещей, которые никогда не случатся, - чем наоборот» ( https://www.theverge.com/21289164/facebook-deepfake-detection-challenge-unsolved-problem-ai ).

Дик Вейсингер (Dick Weisinger)

Мой комментарий: Мы, как профессиональное сообщество, занимаемся созданием и сохранением заслуживающих доверия документальных доказательств. Соответственно, появление новых технологий создания очень убедительных фальшивок (включая создание многочисленных правдоподобных взаимосвязей с другими документами, государственными реестрами и иными авторитетными источниками информации) заставляет нас задуматься над тем, достаточно ли доставшихся нам в наследство от предыдущих поколений методов обеспечения целостности и аутентичности документов – или же нам нужны не только новые методы и средства, но и обновлённая теория архивной науки?

Источник: блог компании Formtek
https://formtek.com/blog/deepfakes-trying-to-make-sense-of-whats-real-and-whats-not/

Комментариев нет:

Отправить комментарий