пятница, 18 марта 2022 г.

Ответственный искусственный интеллект: Внедрение ИИ надлежащим образом

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 26 января 2022 года на блоге компании Formtek.

Искусственный интеллект (ИИ) внедряется большим числом государственных и коммерческих учреждений и организаций, и с большим успехом применяется для решения множества различных видов задач. Однако многие опасаются, что если за использованием технологий ИИ не следить должным образом, то ими легко можно злоупотребить. В настоящее время существует не очень много правил, регламентирующих использование ИИ, в том числе вопросы этики, обеспечения неприкосновенности частной жизни, предотвращения дискриминации и предвзятости.

Многие коммерческие компании не чувствуют ответственности. Фактически, 43% владельцев бизнеса, отвечая на опрос по этике ИИ ( https://www.fico.com/blogs/its-2021-do-you-know-what-your-ai-doing ) отметили, что, помимо существующих нормативных требований, они не несут какой-либо ответственности за этичное управление своими ИИ-системами. Их позиция, по сути дела, заключается в том, что если какая-либо деятельность не запрещена законодательством, и от неё можно получить выгоду, то почему бы это не сделать?

Мой комментарий: И разве именно такой подход не лежал всегда в основе англо-саксонского права? Разве именно он не пропагандировался как одна из фундаментальных основ «демократического, цивилизованного, правового общества»? :)

Проблема заключается в том, что ИИ-технологии меняются так быстро, что законодатели сталкиваются с проблемой не отставать от них, понимать их и находить правильные способы для того, чтобы контролировать технологии, не убивая при этом инновации.

Директор по аналитике компании FICO Скотт Зольди (Scott Zoldi, https://www.linkedin.com/in/scottzoldi/ ) говорит, что «ИИ обладает силой изменить мир, но, на мой взгляд, как говорится в популярной поговорке, с большой силой приходит и большая ответственность» ( https://www.fico.com/blogs/its-2021-do-you-know-what-your-ai-doing ).

Многие высказываются и выступают с критикой того, как искусственный интеллект применяется в настоящее время.

На эту тему высказываются, например, крупные банки. Главный научный специалист по принятию решений Австралийского банка Содружества (CBA) Дэн Джермин (Dan Jermyn, https://www.linkedin.com/in/danjermyn/?originalSubdomain=au ) отмечает, что «темпы, масштабы и изощрённость ИИ-решений означают, что нам следует обеспечить свою постоянную эволюцию с тем, чтобы соответствовать потребностям новых технологий, поэтому так важно сотрудничество с нашими партнерами в государственных органах и в отрасли» ( https://www.zdnet.com/article/cba-turns-focus-on-applying-responsible-ai-following-national-ethics-framework-pilot/ ).

Слышна критика со стороны исследователей ИИ, в прошлом работавших на Google и другие крупные технологические компании … Уволенная из Google бывший исследователь искусственного интеллекта Маргарет Митчелл (Margaret Mitchell,  https://www.m-mitchell.com/ ) отметила, что «если вы действительно верите в предвидение, то оно должно стать частью того, что вы делаете, прежде чем продукт будет выпущен. Я полагаю, что в данный момент этика ИИ находится на той стадии, когда она рассматривается как последний из вопросов, которыми вы будете заниматься, вроде создания контролирующего органа или блокировки запуска продукта. Но если вы относитесь к этому серьезно, то решение вопрос этики должно идти рука об руку с развитием, как технически-позитивное дело» ( https://www.zdnet.com/article/google-fires-top-ethical-ai-expert-margaret-mitchell/ ).

И американские военные дают обещания… Министр обороны США Ллойд Остин (Lloyd Austin, https://en.wikipedia.org/wiki/Lloyd_Austin ) сказал, что «в области ИИ, как и во многих других, мы понимаем, что основной вызов нам идёт со стороны Китая. Мы будем бороться за победу в этом соревновании, но собираемся делать это правильно. Таким образом, использование нами ИИ должно укреплять наши демократические ценности, защищать наши права, обеспечивать нашу безопасность и защищать неприкосновенность нашей частной жизни. Конечно, мы понимаем давление и напряженность. И мы знаем, что оценка правовых и этических последствий новых технологий может занять некоторое время.» Китай может внедрять ИИ для обеспечения большего контроль над гражданами, но Остин говорит, что американские военные «сделают это правильно». ( https://breakingdefense.com/2021/07/secdef-austin-commits-us-to-responsible-ai/ ).

Мой комментарий: Американские военные, они ведь такие милашки, и если они и устроят Вам тотальный контроль, то сделают это красиво и правильно, не то, что некоторые! :) Хочется верить, что автор всё-таки не принимает эти высказывания за чистую монету, и включение данной цитаты – это осторожный сарказм, а не безграничная наивность.  

Профессор Стэнфордского университета и идейный лидер в области ИИ Эндрю Нг (Andrew Ng, https://www.linkedin.com/in/andrewyng/ ) пишет, что «компании, уделяющие внимание этике - как в области искусственного интеллекта, так и в других областях — будут пожинать плоды в виде более качественных продуктов, более счастливых клиентов и большей честности и справедливости в мире» ( https://info.deeplearning.ai/the-batch-face-recognition-at-the-border-robot-manicurists-irresponsible-ai-synthesizing-real-world-scenes ).

Мой комментарий: Тем же непросветлённым, которые предпочтут доходы этике, останется лишь горько стенать и посыпать голову – нет, не пеплом, а миллиардами долларов и евро сверхприбылей, наблюдая, как их более «политкорректные» конкуренты вылетают из бизнеса :)

Дик Вейсингер (Dick Weisinger)

Источник: блог компании Formtek
https://formtek.com/blog/responsible-ai-doing-it-the-right-way/ 

Комментариев нет:

Отправить комментарий