пятница, 22 октября 2021 г.

Выявление продвинутых фальсификаций (deep fakes), вероятно, окажется труднодостижимой целью

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 5 октября 2021 года на блоге компании Formtek.

Благодаря современным технологиям всё проще становится имитировать окружающий нас мир. Широко распространены фейковые видео с участием таких известных персонажей, как Том Круз (Tom Cruise), Владимир Путин и Нэнси Пелоси (Nancy Pelosi). В некоторых случаях очевидно, что видео является фальшивкой и сделано с целью поразвлечься, - однако отличить правду от фальсификации становится всё труднее. Становится возможным без особого труда создавать дезинформацию, которая может наносить ущерб и вводить в заблуждение.

Директор и основатель Центра по правам человека (Human Rights Center) Алекса Кениг (Alexa Koenig, https://www.law.berkeley.edu/our-faculty/faculty-profiles/alexa-koenig/ ), отмечает, что «продвинутые высокотехнологичные видеофальшивки часто называют «синтетическими видеозаписями» (synthetic video). В них показаны события, которые генерируются алгоритмами - по сути, двумя компьютерами, которые бросают вызов друг другу, чтобы посмотреть, насколько хорошо они могут обмануть людей, заставив их поверить в то, что эти материалы является отражением реальности» ( https://www.dailymaverick.co.za/article/2021-05-05-manipulating-reality-the-rise-of-deepfakes-and-how-to-spot-them/ ).

Действующая в сфере кибербезопасности компания Recorded Future делает вывод о том, что «в течение нескольких последующих лет источники угроз из числа представителей как преступного мира, так и враждебных государств, участвующие в операциях по дезинформации и оказанию влиянию, скорее всего, будут всё шире использовать продвинутые фальшивки, - поскольку модель потребления онлайн-контента всё больше смещается в сторону парадигмы «увидеть - значит поверить», - и делать ставку на то, что часть интернет-сообщества по-прежнему будет восприимчивой к ложной или вводящей в заблуждение информации» ( https://www.recordedfuture.com/deepfakes-frauds-next-frontier/ ).

Эксперт по кибербезопасности Брайан Фостер (Brian Foster, https://www.linkedin.com/in/bfos227/ ), считает, что «в целом, чем больше мы сможем автоматизировать и использовать знания и понимание для выполнения процессов верификации, тем лучше. Этот подход в меньшей степени полагается на людей, которые, - давайте посмотрим правде в глаза, - допускают множество ошибок, и больше - на инновационные передовые методы и инструменты, которые могут быть реализованы намного быстрее и успешнее, чем любая статичная корпоративная политика» ( https://threatpost.com/deepfake-attacks-surge-experts-warn/165798/ ).

Нина Шик (Nina Schick, https://ninaschick.org/ ), автор книги «Продвинутые фальшивки и грядущий инфо-апокалипсис» (Deep Fakes and the Coming Infocalypse), пишет, что «синтетические мультимедийные материалы, как ожидается, станут повсеместно распространёнными примерно через три-пять лет, поэтому в будущем нам необходимо разработать инструменты из выявления. Однако по мере того, как улучшаются возможности для распознавания фальшивок, совершенствуются и возможности для их создания» ( https://www.bbc.com/news/technology-53984114 ).

Дик Вейсингер (Dick Weisinger)

Мой комментарий: Честно говоря, меня несколько удивляет нынешняя шумиха вокруг продвинутых высотехнологичных фальсификаций. Они были во все века, соответствуя техническому уровню своего времени. Полвека назад неплохо фальсифицировали бумажные документы, фото и аудиоматериалы, даже отпечатки пальцев. Сегодня фото-, аудио- и видеоматериалы фальсифицируются так, что имитируются биометрические характеристики жертв.

Проблема, как мне кажется, скорее в том, что ряду поколений людей, родившихся в конце 20-го – начале 21-го века, сильно «промыли мозги» насчёт того, что современные технологии все исключительно «добрые» и высоконадёжные. Люди позабыли простые истины, прекрасно известные их предшественника – любые технологии можно использовать как для добрых, так и для злых дел; а подделать можно всё, что угодно, было бы желание и необходимые ресурсы...

С точки зрения архивного дела и управления документами, нужно понимать, что как безвредные имитации (которые в ряде случаев можно рассматривать как полезные модели реальности или как произведения искусства), так и злонамеренные фальсификации неизбежно будут поступать в архивы. Архивам с ними проще бороться с ними в том плане, что у них есть возможность повторно проверять подлинность материалов, когда появляются новые, продвинутые методы выявления фальшивок; и проводить перекрёстное сопоставление многочисленных материалов, поступивших к ним из различных источников. Главное для нас – не прятать голову в песок и не делать вид, что проблемы не существует; и, соответственно, заранее «обрабатывать» руководство, дорабатывать свои политики и процедуры, искать нужные ресурсы и кадры.

Источник: блог компании Formtek
https://formtek.com/blog/deep-fakes-detection-likely-to-be-an-elusive-goal/

Комментариев нет:

Отправить комментарий