воскресенье, 4 февраля 2024 г.

США: Возможно, вскоре базовые ИИ-модели будут регулироваться напрямую

Данный пост разработчика приложений и специализирующегося на технологиях юриста Раймонда Сана (Raymond Sun) был опубликован 24 декабря 2023 года в социальной сети LinkedIn.

22 декабря 2023 года руководители дискуссионной группы Конгресса США по искусственному интеллекту, члены Палаты представителей Анна Эшу (Anna Eshoo, демократ от штата Калифорния) и Дон Бейер (Don Beyer, демократ от штата Вирджиния, https://beyer.house.gov/ ) представили проект Закона о прозрачности базовых ИИ-моделей (AI Foundation Model Transparency Act).

Мой комментарий: По мере того, как ИИ-технологии начинают повсеместно использоваться и уже проявляются связанные с ними проблемы и риски, активизируются усилия законодателей различных стран мира, направленные на регламентацию и регулирование использования ИИ.

Текст данного 14-страничного законопроекта доступен по адресу https://beyer.house.gov/UploadedFiles/AI_Foundation_Model_Transparency_Act_text_118.pdf , а текст одностраничной аннотации к нему – по адресу https://beyer.house.gov/UploadedFiles/One-pager_AI_Foundation_Model_Transparency_Act_.pdf .

  • Данный законопроект применим в отношении «субъектов регулирования» (covered entity), под которыми понимаются любые лица, партнёрства или корпорации, предоставляющие в пользование базовые ИИ-модели или опирающиеся на них услуги, которые

    (a) «генерирует в совокупности более 100 тысяч экземпляров выходных результатов в месяц», или

    (b) «имеют в общей сложности более 30 тысяч пользователей в месяц».

  • Законопроект поручает Федеральной комиссии по торговле (Federal Trade Commission, FTC), в консультации с различными другими федеральными органами исполнительной власти, установить стандарты прозрачности, требующие от «субъектов регулирования» раскрытия потребителям и FTC определенной информации об обучающих данных и механизмах обучения базовых моделей, и о том, собираются ли данные пользователей в процессе вывода результатов.

  • Несоблюдение этих стандартов будет рассматриваться как «несправедливое или вводящее в заблуждение действие или практика», преследуемое Федеральной комиссией по торговле.

Мои мысли по поводу законопроекта

Для тех, кто следит за изменениями в законодательстве США, данный законопроект был ожидаемым (поскольку недавно выпущенный исполнительный приказ президента Байдена уже предусматривал введение режима уведомлений в отношении базовых ИИ-моделей).

Что касается стандартов прозрачности, в законопроекте мало подробностей (многие из которых должны быть установлены Федеральной комиссией по торговле). Законопроект также поручает Федеральной комиссии по торговле рассмотреть вопрос о том, стоит ли включать альтернативные положения для ИИ-моделей с открытым исходным кодом и для производных ИИ-моделей. Таким образом, пока что рано говорить о том, насколько эффективным может быть этот законопроект.

В законопроекте понятие «базовой модели» (Foundation Model, FM) определяется как «модель искусственного интеллекта, которая

  • обучена на обширных данных,

  • обычно использует самоконтроль,

  • обычно содержит не менее 1 миллиарда параметров,

  • применима в широком диапазоне контекстов и

  • демонстрирует (или может быть легко модифицирована, чтобы демонстрировать) высокий уровень производительности при выполнении задач, которые потенциально могут представлять серьезные риски для защищённости и безопасности, национальной экономической безопасности, национального общественного здравоохранения или любой комбинации этих аспектов».

Я вижу здесь два проблемных вопроса:

  • Такие понятия, как «обширные данные» (broad data), «самоконтроль» (self-supervision), «высокий уровень производительности» и «серьезный риск», должны быть конкретизированы, чтобы такое определение «базовых моделей» работало – хотя я готов признать, что это легче сказать, чем сделать (например, законодатели Евросоюза всё ещё разрабатывают технические спецификации базовых моделей!)

  • Предложенное определение охватывает только модели, представляющие «серьезный риск». Если объединить его с определением «субъекта регулирования», то сфера действия законопроекта окажется весьма ограниченной и, вероятно, он будет актуален только для крупных технологических компаний (которые обладают большой лоббистской силой). Поэтому я предвижу, что вокруг этого законопроекта будет много политики. Возможно, более гибким подходом было бы сохранить нейтральное определение и использовать нормативные положения для конкретизации сферы действия закона. Нейтральное определение позволяет устанавливать разные правила в случае разного уровня риска (что и делает Евросоюз).

Раймонд Сан (Raymond Sun)

Источник: сайт LinkedIn
https://www.linkedin.com/posts/raymond-sun-64576a122_ai-foundation-model-transparency-act-activity-7144533022803996672-f8I0
https://beyer.house.gov/news/documentsingle.aspx?DocumentID=6052

Комментариев нет:

Отправить комментарий