Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 16 декабря 2022 года на блоге компании Formtek.
При всём том хорошем, что принесли с собой современные технологии, у них была и неприятная обратная сторона. Технологии упростили внесение искажений и ложь. Такие инструменты, как Photoshop и более недавние инструменты на основе искусственного интеллекта позволяют легко создавать поддельные, но реалистичные изображения и видео.
Мой комментарий: Нет «хороших» и «плохих» технологий – любая технология может быть использована как во благо, так и во вред (не говоря уже о том, что отделение «хорошего» от «плохого» дело зачастую весьма субъективное). Соответственно, меня удивляет не то, что современные информационные технологии могут быть применены в недобрых целях, а, скорее, существование людей, которым такая возможность не приходила в голову :)
Технологии сделали возможным дешевое и быстрое изготовление поддельных изображений и вымышленных текстов, которые можно транслировать миллионам подписчиков социальных сетей и новостным организациям. То же самое происходит и в мире научных исследований.
Директор Исследовательского центра Пью (Pew Research Center) Ли Рейни (Lee Rainie, https://www.pewresearch.org/staff/lee-rainie/ ) отмечает, что «ключевая тактика новых «противников правды» заключается уже не столько в том, чтобы заставить людей поверить в ложную информацию, сколько в создании достаточного количества сомнений для того, чтобы люди отказались от попыток найти истину и не доверяли учреждениям, пытающимся сказать им правду» (см. https://www.pewtrusts.org/en/trust/archive/winter-2019/what-is-the-future-of-truth ).
Мой комментарий: «Маленькая проблемка» заключается здесь в том, что хватает распространяющих недостоверную информацию учреждений (в том числе считающихся авторитеными), - а те, кто с этим борется, тоже ведь распространяют сомнения в достоверности информации из таких источников! И как здесь отличить «хороших» парней от «плохих»? Пожалуй, только путём последующего анализа, спустя достаточно длительное время, того, какая информация на самом деле подтвердилась на практике…
Некоторые исследователи сейчас говорят о том, что возможность легко генерировать поддельные изображения и данные значительно усложнит контроль и выявление научных статей, основанных на подвергнутых манипуляциям или фальсифицированных данных. В их исследовании делается вывод о том, что «целостность подвергается атакам со стороны определенных организаций, которые хотят обойти стандартные протоколы проведения исследований. Вместо того, чтобы фотографировать результаты своей реальной работы, они могут взамен создавать их с помощью приложений на основе искусственного интеллекта. Создание подобным образом поддельных фотографий может дать злоумышленникам возможность публиковать исследовательские статьи, не проводя никаких реальных исследований» (см. https://techxplore.com/news/2022-05-scientists-due-ai-imagery.html ).
Мой комментарий: В своё время нас учили, что «практика – критерий познания». Если результаты научных исследований реально применяются для решения важных практических проблем, то подделывать их себе дороже – такой путь быстро приводит к «суме и тюрьме». А вот в гигантской по масштабам сфере квази- и псевдонауки, где исследования проводятся исключительно ради проедания грантов, а статьи публикуются только ради рейтингов, там качество и количество фальшивок, возможно, вырастут (впрочем, их и сейчас более чем достаточно!).
Так стоит ли так беспокоиться о росте качества подделок в научной сфере? С моей точки зрения, нет – гораздо продуктивнее заняться безжалостным искоренением не имеющих практически-полезного «выхлопа» псевдо-исследований и публикаций.
Дик Вейсингер (Dick Weisinger)
Источник: блог компании Formtek
https://formtek.com/blog/alternative-truths-using-technology-to-distort-scientific-research/
суббота, 14 января 2023 г.
Альтернативная правда: Использование технологий для искажения научных исследований
Ярлыки:
аналитика,
информационная безопасность,
наука,
США,
фальсификация
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий