22 декабря 2023 года руководители дискуссионной группы Конгресса США по искусственному интеллекту, члены Палаты представителей Анна Эшу (Anna Eshoo, демократ от штата Калифорния) и Дон Бейер (Don Beyer, демократ от штата Вирджиния, https://beyer.house.gov/ ) представили проект Закона о прозрачности базовых ИИ-моделей (AI Foundation Model Transparency Act).
Мой комментарий: По мере того, как ИИ-технологии начинают повсеместно использоваться и уже проявляются связанные с ними проблемы и риски, активизируются усилия законодателей различных стран мира, направленные на регламентацию и регулирование использования ИИ.
Текст данного 14-страничного законопроекта доступен по адресу https://beyer.house.gov/UploadedFiles/AI_Foundation_Model_Transparency_Act_text_118.pdf , а текст одностраничной аннотации к нему – по адресу https://beyer.house.gov/UploadedFiles/One-pager_AI_Foundation_Model_Transparency_Act_.pdf .
- Данный законопроект применим в отношении «субъектов регулирования» (covered entity), под которыми понимаются любые лица, партнёрства или корпорации, предоставляющие в пользование базовые ИИ-модели или опирающиеся на них услуги, которые
(a) «генерирует в совокупности более 100 тысяч экземпляров выходных результатов в месяц», или
(b) «имеют в общей сложности более 30 тысяч пользователей в месяц». - Законопроект поручает Федеральной комиссии по торговле (Federal Trade Commission, FTC), в консультации с различными другими федеральными органами исполнительной власти, установить стандарты прозрачности, требующие от «субъектов регулирования» раскрытия потребителям и FTC определенной информации об обучающих данных и механизмах обучения базовых моделей, и о том, собираются ли данные пользователей в процессе вывода результатов.
- Несоблюдение этих стандартов будет рассматриваться как «несправедливое или вводящее в заблуждение действие или практика», преследуемое Федеральной комиссией по торговле.
Мои мысли по поводу законопроекта
Для тех, кто следит за изменениями в законодательстве США, данный законопроект был ожидаемым (поскольку недавно выпущенный исполнительный приказ президента Байдена уже предусматривал введение режима уведомлений в отношении базовых ИИ-моделей).
Что касается стандартов прозрачности, в законопроекте мало подробностей (многие из которых должны быть установлены Федеральной комиссией по торговле). Законопроект также поручает Федеральной комиссии по торговле рассмотреть вопрос о том, стоит ли включать альтернативные положения для ИИ-моделей с открытым исходным кодом и для производных ИИ-моделей. Таким образом, пока что рано говорить о том, насколько эффективным может быть этот законопроект.
В законопроекте понятие «базовой модели» (Foundation Model, FM) определяется как «модель искусственного интеллекта, которая
- обучена на обширных данных,
- обычно использует самоконтроль,
- обычно содержит не менее 1 миллиарда параметров,
- применима в широком диапазоне контекстов и
- демонстрирует (или может быть легко модифицирована, чтобы демонстрировать) высокий уровень производительности при выполнении задач, которые потенциально могут представлять серьезные риски для защищённости и безопасности, национальной экономической безопасности, национального общественного здравоохранения или любой комбинации этих аспектов».
Я вижу здесь два проблемных вопроса:
- Такие понятия, как «обширные данные» (broad data), «самоконтроль» (self-supervision), «высокий уровень производительности» и «серьезный риск», должны быть конкретизированы, чтобы такое определение «базовых моделей» работало – хотя я готов признать, что это легче сказать, чем сделать (например, законодатели Евросоюза всё ещё разрабатывают технические спецификации базовых моделей!)
- Предложенное определение охватывает только модели, представляющие «серьезный риск». Если объединить его с определением «субъекта регулирования», то сфера действия законопроекта окажется весьма ограниченной и, вероятно, он будет актуален только для крупных технологических компаний (которые обладают большой лоббистской силой). Поэтому я предвижу, что вокруг этого законопроекта будет много политики. Возможно, более гибким подходом было бы сохранить нейтральное определение и использовать нормативные положения для конкретизации сферы действия закона. Нейтральное определение позволяет устанавливать разные правила в случае разного уровня риска (что и делает Евросоюз).
Раймонд Сан (Raymond Sun)
Источник: сайт LinkedIn
https://www.linkedin.com/posts/raymond-sun-64576a122_ai-foundation-model-transparency-act-activity-7144533022803996672-f8I0
https://beyer.house.gov/news/documentsingle.aspx?DocumentID=6052
Комментариев нет:
Отправить комментарий