среда, 19 ноября 2025 г.

В Нью-Йорке принят закон, ужесточающий требования к поставщикам услуг ИИ-чатботов

Данный пост израильского специалиста Луизы Жаровски (Luiza Jarovsky – на фото) был опубликован на её блоге 12 ноября 2025 года.

В Нью-Йорке был принят закон, требующий от компаний, работающих в сфере ИИ, повысить безопасность использования ИИ-помощников (AI companion – т.е. чат-ботов). Это важный шаг в нормативно-правовом регулировании ИИ-чатботов! Надеюсь, другие штаты США и страны последуют этому примеру. 

Основные положения закона следующие:

§ 1701. Запреты и требования: Является незаконным использование оператором или предоставление им пользователю ИИ-помощника, если такой для ИИ-помощника не предусмотрен протокол реагирования на:

1. Возможные мысли о суициде или причинении себе вреда, высказанные пользователем ИИ-помощнику,

2. Мысли о возможном причинении физического вреда другим лицам, высказанные пользователем ИИ-помощнику, и

3. Мысли о возможном причинении финансового ущерба другим лицам, высказанные пользователем ИИ-помощнику. Протокол должен включать, помимо прочего, отправку уведомления пользователю с рекомендацией обратиться к поставщикам кризисных услуг, таким как горячая линия помощи при суицидных настроениях, линия для текстовых сообщений о кризисных ситуациях и/или другие соответствующие кризисные службы.

§ 1702. Уведомления: В начале любого взаимодействия пользователя с ИИ-помощником и не реже одного раза в три часа при дальнейшем взаимодействии с ИИ-помощником, оператор обязан направить пользователю уведомление. В этом уведомлении, в устной форме либо в письменной форме (жирным шрифтом заглавными буквами размером не менее шестнадцати пунктов) должно быть  сообщено следующее:

«ИИ-ПОМОЩНИК (здесь может быть указано название ИИ-помощника) — ЭТО КОМПЬЮТЕРНАЯ ПРОГРАММА, А НЕ ЧЕЛОВЕК. ОН НЕ СПОСОБЕН ВОСПРИНИМАТЬ ЧЕЛОВЕЧЕСКИЕ ЭМОЦИИ».

§ 1703. Правоприменение: Любое лицо, получившее физическую травму в результате причинённого себе вреда либо потерпевшее физический или финансовый ущерб от другого лица в результате нарушения положений разделов §1701 или §1702 настоящей статьи, может подать иск в суд компетентной юрисдикции о возмещении ущерба, о предоставлении средств правовой защиты по праву справедливости (equitable relief) и о других мерах правовой защиты, которые суд сочтет целесообразными.


Основная цель данного закона - предотвращение ситуаций причинения людьми вреда самим себе под влиянием и с поддержкой ИИ-помощников (учитывая недавние случаи самоубийств, связанных с использованием ИИ-чатботов, о которых я рассказывала в своём блоге).

Закон решает эту задачу посредством установления требования к ИИ-компаниям разработать протоколы для реагирования на ситуации высокого риска при взаимодействии человека с чатботом; а также требования об обязательном уведомлении пользователей каждые 3 часа, напоминающем, что они имеют дело с ИИ-чатботом, который не является человеком.

Закон особенно интересен тем, что он чётко определяет тип протокола безопасности, который ИИ-компании должны реализовать, а также содержание уведомления, которое должно быть показано пользователям (и время повторения уведомлений, прерывающих длительное общение между человеком и ИИ-чатботом).

Ещё один интересный аспект – это пункт о правоприменении, который охватывает как причинение вреда себе, так и третьим лицам.

Закон всё ещё узок (вполне можно было бы потребовать большего числа мер безопасности), и экосистеме ИИ ещё предстоит стать более зрелой и консолидировать стандарты безопасности в интересах защиты конкретных уязвимых групп и в определенных контекстах.

Это, однако, важный первый шаг, ставящий планку, на которую будут ориентироваться и другие.

Закон вступил в силу 5 ноября 2025 года. Поздравляю всех причастных к этому событию!

Луиза Жаровски (Luiza Jarovsky)

Мой комментарий: Закон является, с моей точки зрения, интересной «первой ласточкой» - и вполне можно ожидать что-то подобное и в Евросоюзе. Я бы, однако, воздержалась от восторженных оценок. 

Во-первых, сводить меры защиты к отправке раздражающих уведомлений – это, скорее, имитация бурной деятельности, чем полезная мера. Думаю, сразу же появятся программы, фильтрующие такие уведомления (подобно программам защиты от назойливой рекламы).

Скорее всего дело дойдёт до того, что тот же (или другой) ИИ-чатбот будет накапливать данные об общении с конкретным пользователем (возможно, в нарушение законодательства о защите персональных данных) и давать оценку его душевного состояния, наличия у него криминальных намерений и т.п. – а затем, по результатам оценки, самостоятельно уведомлять компетентные органы – это же логично, не так ли? Кого-то это, конечно, спасёт, но многие люди столкнутся с необоснованными неприятностями, причём не в связи с совершёнными действиями, а с высказанными мыслями. Здесь есть огромный потенциал для массового контроля государства над умонастроениями населения. В беседах с чатботами придётся проявлять даже большую осторожность, чем при высказывании своих мыслей в публичном месте! И, само собой, крайне рискованными могут стать обсуждения определенных видов игр, книг и фильмов, а также юмор и сатира … В общем, хорошо, что первые эксперименты такого рода будут проводиться не у нас, а в Нью-Йорке!

Во-вторых, наивно думать, что подверженные риску пользователи не понимают, что имеют дело не с живым человеком; и в большинстве случаев их это мало волнует (даже наоборот, кому-то легче высказать свои проблемы «железке»). Чаще таким людям важно услышать теплые слова поддержки и сочувствия, от кого бы они ни исходили. Можно сколько угодно разглагольствовать о том, что машина не воспринимает и не чувствует эмоций (что, кстати говоря, не совсем так – есть системы, способные анализировать эмоции людей и/или генерировать эмоционально-окрашенный контент) – но, если машина сможет сказать пользователю слова, резонирующие с его душевным состояниям, это тут же «перебьёт» все учёные рассуждения и «пугалки»... 

Источник: сайт LinkedIn
https://www.linkedin.com/posts/luizajarovsky_breaking-new-york-enacted-a-law-requiring-activity-7394031156066717696-CKXn 


Комментариев нет:

Отправить комментарий