вторник, 12 декабря 2023 г.

Большие новости: Закон Евросоюза об искусственном интеллекте согласован!

Данный пост специализирующегося на связанном с ИИ праве юриста Барри Сканнелла (Barry Scannell – на фото) был опубликован 9 декабря 2023 года в социальной сети LinkedIn.

Пришли большие новости: Закон Евросоюза об искусственном интеллекте (AI Act) согласован!

Последствия Закона об искусственном интеллекте следующие:

1. Многоуровневая система, основанная на рисках: Для ИИ-систем, классифицируемых как системы высокого риска, были согласованы чёткие обязательства. Теперь потребуется проведение обязательной оценки воздействия на фундаментальные права.

2. Базовые модели (мастер-модели -  foundation models) будут регулироваться в соответствии с подходом, использованным в Исполнительном приказе президента Байдена, который будет применяться к моделям, обучение которых требует 10 в 25-й степени флопов вычислительной мощности - по сути, это самый крупные из больших языковых моделей.

Мой комментарий: Имеется в виду «Исполнительный приказ 14110 о безопасном, надежном и заслуживающем доверия разработке и использовании искусственного интеллекта» (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, EO 14110, https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/ ) от 30 октября 2023 года, пост на блоге о котором см. здесь: http://rusrim.blogspot.com/2023/11/blog-post_449.html


3. Следующие системы будут запрещены, и компаниям даётся всего шесть месяцев для обеспечения соблюдения требований:

  • системы биометрической категоризации, использующие чувствительные характеристики (например, политические, религиозные, философские убеждения, сексуальную ориентацию, расу);

  • недискриминированный сбор изображений лиц из Интернета или записей камер видеонаблюдения для создания баз данных для распознавания лиц;

  • распознавание эмоций на рабочем месте и в учебных заведениях;

  • определение социального рейтинга, основанный на поведении в обществе и/или на личных характеристиках;

  • ИИ-системы, которые манипулируют поведением людей, чтобы обойти их свободное волеизъявление;

  • ИИ-системы, используемые для эксплуатации уязвимостей людей (связанных с их возрастом, инвалидностью, социальной или экономической ситуацией).

4. К ИИ-системам высокого риска предъявляются требования по обеспечению прозрачности.

5. ИИ-системы высокого риска должны проектироваться и развиваться таким образом, чтобы эффективно справляться с предвзятостью / необъективностью, обеспечивая отсутствие дискриминации и уважение фундаментальных прав человека.

6. Поставщики ИИ-систем высокого риска должны вести тщательную документацию, подтверждающую их соответствие требованиям законодательства. Сюда входят документы о методологиях программирования и обучения, об используемых наборах данных и мерах, принятых для надзора и контроля.

7. Закон об ИИ требует надзора человека за системами высокого риска с целью минимизации рисков, обеспечивая, что усмотрение человека является частью развёртывания ИИ-системы.

8. Санкции. Несоблюдение требований может привести к существенным штрафам: от 35 миллионов евро либо 7% мирового оборота и до 7,5 миллионов евро либо 1,5% оборота, в зависимости от серьёзности нарушения и размера компании.

Коммерческие компании, вложившие значительные средства в технологии, которые теперь будут считаться запрещёнными, такие как биометрическая категоризация и распознавание эмоций, могут столкнуться с необходимостью серьёзных изменений их стратегии. Кроме того, ужесточение требований к прозрачности может поставить под угрозу защиту интеллектуальной собственности, что потребует баланса между раскрытием информации и сохранением коммерческой тайны.

Компаниям, возможно, также придется инвестировать в более качественные данные и в передовые инструменты менеджмента предвзятости / необъективности, что потенциально может увеличить эксплуатационные расходы, но повысит справедливость и качество ИИ-систем.

Требования к документации и управлению документами станут значительным административным бременем, что потенциально повлияет на время вывода на рынок новых ИИ-продуктов.

Интеграция надзора со стороны человека в ИИ-системы с высоким уровнем риска потребует изменений в проектировании и развертывании систем, а также потенциально в обучении персонала.

Существенные штрафы за несоблюдение требований представляют собой значительный финансовый риск.

Колёса пришли в движение. Пришло время получить юридическую консультацию, которая Вам сейчас нужна!

Барри Сканнелл (Barry Scannell)

Мой комментарий: Большинство комментариев под этим постом – достаточно скептические. Евросоюз, как это характерно для систем континентального права, просто запрещает целые крупные направления развития ИИ-систем, вместо того, чтобы отделять мух от котлет и наказывать не за использование конкретных технологий, а за причинение вреда. Как и в европейском законодательстве о персональных данных, в законе много популизма и перекосов в сторону защиты интересов отдельных граждан, в ущерб интересам общества и организаций. В связи с эти многие коллеги высказывают опасения, что новый закон поставит страны Евросоюза в невыгодное положение по сравнению с Китаем, США, Великобританией и другими странами.

Источник: LinkedIn
https://www.linkedin.com/posts/activity-7139192581099253760-IE6x   

Комментариев нет:

Отправить комментарий