пятница, 5 мая 2023 г.

Чат-боты, высокотехнологические фальшивки и голосовые клоны: Платные услуги по обману с использованием искусственного интеллекта

Данная заметка юриста из отдела рекламной практики американской Федеральной комиссии по торговле (Federal Trade Commission, FTC) Майкла Атлесона (Michael Atleson – на фото) была опубликована 20 марта 2023 года в «Деловом блоге FTC» (FTC Business Blog).

Возможно, Вы слышали о теории (или гипотезе) симуляции (simulation theory- см., например, https://ru.wikipedia.org/wiki/Гипотеза_симуляции - Н.Х.), согласно которой нет ничего реального и что все мы являемся частью гигантской компьютерной программы. Давайте предположим, - по крайней мере, в рамках этого поста в блоге - что такое представление является неверным. Тем не менее, мы, возможно, движемся к будущему, в котором значительная часть того, что мы видим, слышим и читаем, представляет собой компьютерную симуляцию. Мы в Федеральной комиссии по торговле всегда придерживаемся реальности, но что произойдёт, когда никто из нас не сможет отличить подлинное от подделки?

В одном из недавних постов на этом блоге (см. https://www.ftc.gov/business-guidance/blog/2023/02/keep-your-ai-claims-check ) мы обсуждали, как термин «ИИ» может использоваться в качестве вводящего в заблуждение аргумента в пользу приобретения новых продуктов и услуг. Назовем это «проблемой фальшивого ИИ» (fake AI problem). Сегодняшняя наша тема - использование искусственного интеллекта «за кулисами» для создания или распространения вводящей в заблуждение информации. Назовем это проблемой создания подделок с помощью ИИ (AI fake problem), которая представляет собой более глубокую нарождающуюся угрозу, с которой необходимо бороться компаниям в цифровой экосистеме. И это нужно делать сейчас.

Мой комментарий:
Надпись на рисунке гласит: «Проблема ИИ-подделок: что нужно знать коммерческим организациям».


Большинство из нас проводит массу времени, глядя на экран какого-либо устройства. Благодаря инструментам искусственного интеллекта, которые создают «синтетические медийные материалы» (synthetic media - музыкальные, звуковые, видео, текстовые и иные материалы, создаваемые искусственным интеллектом – Н.Х.) или иным образом порождают контент, растущий процент того, на что мы смотрим, не является аутентичными материалами, и заметить разницу становится всё труднее. И по мере того, как эти ИИ-инструменты становятся всё более совершенными, получать к ним доступ и использовать их становится всё проще. Некоторые из этих инструментов могут иметь полезное применение, однако мошенники также могут использовать их для причинения широкомасштабного вреда.

Порождающий ИИ (generative AI) и синтетические медийные материалы (synthetic media) - это разговорные термины, используемые для обозначения чат-ботов, разработанных на основе больших языковых моделей, а также имитирующих человеческую деятельность технологий, таких как программное обеспечение, создающее синтетические видео и голосовые клоны. Уже существуют доказательства того, что мошенники могут использовать эти инструменты для быстрого и дешёвого создания реалистично, выглядящего поддельного контента, который они затем распространяют среди широких групп или же целевым образом ориентируясь на определенные сообщества или конкретных лиц. Мошенники могут использовать чат-боты для создания адресных фишинговых электронных писем, поддельных веб-сайтов, постов и сообщений, поддельных профилей и фальсифицированных отзывов потребителей, - или для помощи в создании вредоносных программ, программ-вымогателей и для поддержки инъекционных атак (injection attacks). Они могут высокотехнологические фальшивки (deepfakes) и голосовые клоны для способствования мошенничеству с использованием самозванцев, для вымогательства и финансового мошенничества. И это далеко не полный список.

Содержащийся в законе США о Федеральной комиссии по торговле (Federal Trade Commission Act of 1914) запрет на вводящее в заблуждение или несправедливое поведение может быть применим, если Вы производите, продаете или используете инструмент, который фактически предназначен для обмана - даже если это не является его предполагаемой и/или единственной целью. Итак, подумайте о следующем:

Стоит ли Вам вообще производить или продавать этот инструмент? Если Вы разрабатываете или предлагаете синтезированные медийные материалы или продукты порождающего ИИ, рассмотрите как на этапе проектирования, так и на последующих этапах разумно предсказуемые - и часто очевидные - способы его неправомерного использования для совершения мошенничества или причинения иного вреда. Затем спросите себя, достаточно ли велики такие риски, чтобы вообще отказаться от продвижения данного продукта. Пусть это уже стало мемом, но мы здесь перефразируем доктора Яна Малкольма (Dr. Ian Malcolm), персонажа Джеффа Голдблюма (Jeff Goldblum) из «Парка юрского периода», который упрекал руководителей за то, что те были настолько озабочены тем, смогут ли они построить нечто, что даже не остановились на секунду, чтобы подумать, а стоит ли им это вообще делать.

Обеспечиваете ли Вы эффективное смягчение рисков? Если Вы решили производить или предлагать подобный продукт, примите все разумные меры предосторожности до того, как он появится на рынке. Федеральная комиссия по торговле уже подавала в суд иски против компаний, которые распространяли потенциально вредные технологии, не принимая при этом разумных мер для предотвращения причинения ущерба потребителям. Просто предупреждать Ваших клиентов о недопустимости неправомерного использования или предлагать им раскрывать информацию об использовании вряд ли будет достаточно, чтобы отпугнуть злоумышленников. Ваши меры отпугивания и сдерживания должны быть надежными, встроенными функциями, а не исправлением ошибок или же дополнительными функциями, которые третьи стороны могут обойти посредством модификации или удаления. Если Ваш инструмент предназначен для помощи людям, также спросите себя, действительно ли ему нужно должен подражать людям и может ли он быть столь же эффективным, если будет выглядеть, говорить или вести себя как робот.

Не слишком ли Вы полагаетесь на выявление проблем после выпуска продукта? Исследователи продолжают совершенствовать методы распознавания аудиовидеоматериалов и изображений, созданных искусственным интеллектом. Распознать созданный ИИ текст уже сложнее. Но эти исследователи принимают участие в «гонке вооружений» с компаниями, разрабатывающими инструменты порождающего ИИ; и использующие эти инструменты мошенники часто успевают перейти на инструменты нового поколения к тому времени, когда кто-нибудь обнаружит их поддельный контент. В любом случае бремя выяснения того, используется ли инструмент порождающего ИИ для мошенничества против них, не должно лежать на потребителях.

Не вводите ли Вы людей в заблуждение относительно того, что они видят, слышат или читают? Если вы рекламодатель, у вас может возникнуть соблазн использовать некоторые из этих инструментов для продажи – практически чего угодно. Например, высокотехнологические фальшивки с участием знаменитостей уже распространены и время от времени появляются в рекламе. Мы ранее предупреждали компании, что введение потребителей в заблуждение с помощью двойников-доппельгангеров, таких как поддельные профили на сайтах знакомств, сведения о фальшивых подписчиках, дипфейки или чат-боты, может привести - и фактически уже приводило - к принятию FTC мер административного воздействия.

Хотя основное внимание в этом посте уделяется мошенничеству и обману, эти новые ИИ-инструменты приносят с собой множество других серьёзных проблем, таких как потенциальный вред детям, подросткам и другим группам населения повышенного риска при взаимодействии с этими инструментами или при их использовании. Сотрудники комиссии FTC внимательно следят за этими рисками, поскольку компании продолжают спешно выводить подобные продукты на рынок, в то время, как взаимодействие человека и компьютера продолжает принимать новые и, возможно, опасные обороты.

Майкл Атлесон (Michael Atleson)

Источник: блог FTC Business Blog
https://www.ftc.gov/business-guidance/blog/2023/03/chatbots-deepfakes-voice-clones-ai-deception-sale

Комментариев нет:

Отправить комментарий