пятница, 31 августа 2018 г.

Семь принципов этической разработки систем на основе искусственного интеллекта


Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 16 августа 2018 года на блоге компании Formtek.

Недавно компания Google объявила о семи принципах, которые она обязуется соблюдать во всех своих проектах, связанных с искусственным интеллектом (ИИ).
  • ИИ следует использовать только тогда, когда выгоды перевешивают предсказуемые риски;

  • ИИ должен быть спроектирован таким образом, чтобы он не создавал или не усиливал несправедливое неравенство;

  • ИИ необходимо создавать с учетом вопросов безопасности, и соответствующим образом тестировать;

  • ИИ должен быть подотчетным, позволяя людям высказывать претензии и подавать апелляции;

  • ИИ должен быть прозрачным и предусматривать встроенные меры защиты неприкосновенности частной жизни;

  • ИИ должен поддерживать высокие стандарты научного совершенства. Google пообещал делиться своими знаниями об ИИ;

  • Все созданные ИИ-системы должен следовать этим принципам.
Генеральный директор Google Сундар Пичаи (Sundar Pichai) написал в своем блоге, что «мы признаем, что в связи с появление столь мощной технологии встают в равной степени серьёзные вопросы об ее использовании. То, как ИИ разрабатывается и используется, будет оказывать значительное влияние на общество в течение многих ближайших лет. Являясь лидером в области ИИ, мы чувствуем огромную ответственность за то, что всё сделать правильно».

Google обязуется избегать участия в разработке «оружия или других технологий, основная цель или область применения которых заключается в том, чтобы причинить или прямо способствовать причинению вреда людям; и систем, собирающих или использующих информацию для слежки в нарушение общепринятых международных норм».

Google объявил об этих принципах после жалоб сотрудников на то, что компания работает на Пентагон в рамках проекта Мейвен (Maven). Впоследствии компания Google отказалась от этого контракта.

Дик Вейсингер (Dick Weisinger)

Мой комментарий: Как оценить это заявление Google? На мой взгляд, это полумера, которая - хотя слова звучат красиво - принципиально позволяет разрабатывать опасные системы. Упор сильно сделан на выгоду, не говоря уже о том, что непонятно, кто будет, например, оценивать справедливость или несправедливость неодинакового отношения к различным лицам и организациям (дифференцированное отношение на самом деле является одной из ключевых задач ИИ!).

Для сравнения хочу привести добрые старые три закона роботехники Айзека Азимова, которые, на мой взгляд, сейчас ещё более актуальны, чем в 1942 году, когда они были впервые сформулированы:
  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

  • Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Принципы Google не соответствуют ни одному из этих законов, да и в целом не поднимаются на столь же высокий идейный уровень.

Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-seven-rules-for-ethical-development-of-ai/

Комментариев нет:

Отправить комментарий