(Окончание, начало см. http://rusrim.blogspot.com/2025/10/1_045172042.html )
Закон SB 243: Чат-боты - помощники
Второй закон Калифорнии об искусственном интеллекте, который я хотела бы обсудить в этом посте, - это закон SB 243 ( https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202520260SB243 , прямая ссылка на PDF-файл: https://leginfo.legislature.ca.gov/faces/billPdf.xhtml?bill_id=202520260SB243&version=20250SB24392CHP ), регламентирующий защитные меры в отношении чат-ботов на основе искусственного интеллекта. Он был принят 13 октября 2025 года и вступает в силу 1 января 2026 года.
В центре внимания закона SB 243 – защита детей, взаимодействующих с чат-ботами –ИИ-помощниками. Ключевые положения включают в себя следующее:
(a) Если здравомыслящее лицо, взаимодействующее с чат-ботом – ИИ-помощников, может быть введено в заблуждение, полагая, что оно взаимодействует с человеком, - оператор обязан дать четкое и заметное уведомление, указывающее на то, что чат-бот – ИИ-помощник создан искусственно и не является человеком.
(b) Оператор вправе допускать взаимодействие чат-бота с пользователями на своей платформе чат-бота – ИИ-помощника только в том случае, если оператор поддерживает протокол, предотвращающий предоставление пользователю контента, связанного с суицидальными идеями, самоубийством или причинением себе вреда, - включая, но не ограничиваясь этим, отправку пользователю оповещения с рекомендацией обратиться к поставщикам услуг кризисной помощи, включая горячую линию для людей с суицидальными наклонностями и линию экстренной текстовой связи, если пользователь выражает суицидальные мысли и намерения совершить самоубийство или причинить себе вред».
(c) В отношении пользователя, о котором оператору известно, что он несовершеннолетний, оператор обязан выполнить все следующие действия:
- Информировать пользователю о том, что он взаимодействует с искусственным интеллектом,
- По умолчанию не реже одного раза в три часа показывать пользователю четкое и заметное уведомление о продолжении его взаимодействия с чат-ботом – ИИ-помощником, напоминающее пользователю о необходимости сделать перерыв и о том, что чат-бот – ИИ-помощник создан искусственно и не является человеком,
- Реализовать разумные меры для предотвращения создания чат-ботом – ИИ-помощников визуальных материалов откровенно сексуального характера и выдачи прямых указаний несовершеннолетнему на совершение действий откровенно сексуального характера.
Данное в законе определение понятия «чат-бота – ИИ-помощник» (companion chatbot), а также предусмотренные им исключения могут ограничить его применимость. Закон определяет данное понятие так:
«Чат-бот – ИИ-помощник (companion chatbot) - система ИИ с интерфейсом на естественном языке, которая обеспечивает адаптивные, человекоподобные реакции на вводимые пользователем данные и способна удовлетворять социальные потребности пользователя, в том числе проявляя антропоморфные черты и имея возможность поддерживая [длящиеся] отношения на протяжении ряда взаимодействий».
У меня есть такой вопрос: будут ли ChatGPT и другие универсальные чат-боты на основе ИИ подпадать под действие этого закона, даже если они не позиционируются на рынке как компаньоны/помощники, но при этом люди используют их именно в этом качестве?
Ответ на этот вопрос крайне важен, на что недвусмысленно указывают такие ужасающие случаи, такие как самоубийство Адама Рейна (Adam Raine). Если Вы помните эту историю, там ChatGPT помог подростку спланировать «красивое самоубийство»; а теперь его мать подаёт в суд на компанию OpenAI. Я рассказывала об этом здесь: https://www.luizasnewsletter.com/p/horrifying-chatgpt-helped-a-teenager .
Предусмотренные в законе исключения не проясняют ситуацию, в том числе из-за отсутствия объективных стандартов для оценки того, «генерирует ли чат-бот результаты, которые с большой вероятностью могут вызвать эмоциональную реакцию у пользователей».
ИИ-компании уже осознали, что повышение дружелюбия, привлекательности и льстивости чат-ботов повышает лояльность и зависимость пользователей, поэтому сегодня различные системы ИИ общего назначения (например, ChatGPT) дорабатываются именно таким образом.
Крайне важно, чтобы законы, направленные на предотвращения причинения вреда чат-ботами ИИ, учитывали это и не трактовали понятие «ИИ-помощник» слишком узко.
Мы знаем, что нормативно-правовое регулирование (или дерегулирование) ИИ является ключевой темой для администрации Трампа, о чём ясно свидетельствует недавно представленный «План действий США в области ИИ» (America's AI Action Plan, https://www.whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf ).
Действуя параллельно с инициативами федерального правительства, направленными на «победу в гонке ИИ» и консолидацию своей глобальной сети влияния, и включающими мегапроекты, инвестиции, партнёрства и тарифы, штат Калифорния, похоже, стремится занять отдельную позицию. Почему?
В последние месяцы Калифорния активизировала свои внутренние усилия в сфере нормативно-правового регулирования, в том числе связанные с вопросами, которые считаются ключевыми для развития ИИ, такими как регулирование передовых моделей и чат-ботов на основе ИИ, как я писала выше.
Будет ли федеральное правительство пытаться как-то ограничить эти попытки?
Буду держать Вас в курсе событий.
Луиза Жаровски (Luiza Jarovsky)
Источник: блог Luiza’s Newsletter
https://www.luizasnewsletter.com/p/californias-two-most-important-ai


Комментариев нет:
Отправить комментарий