пятница, 18 июня 2021 г.

Искусственный интеллект: Беспокойство о последствиях «второго порядка»

Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 19 мая 2021 года на блоге компании Formtek.

Внедрение технологий искусственного интеллекта (ИИ) идёт очень быстро, и, хотя у ИИ есть много преимуществ, у него есть и обратная сторона потенциальных проблем, особенно в вопросах этики, злоупотребления ИИ и вторжения в частную жизнь.

В недавно опубликованном исследовании фирмы Gartner ( https://www.techrepublic.com/article/gartner-the-future-of-ai-is-not-as-rosy-as-some-might-think/ ) предсказываются потенциально нежелательные «вторичные» последствия внедрения технологий искусственного интеллекта:

  • К 2023 году в пятой части атак с использованием социальной инженерии (social engineering) будут применяться высокотехнологические фальшивки (дипфейки, deepfakes – обычно создаваемые с использованием технологии ИИ – Н.Х.);

  • К 2024 году 60%поставщиков программного обеспечения для искусственного интеллекта включат в своё программное обеспечение защитные меры для предотвращения злоупотреблений его возможностями (но к тому времени злоумышленники также найдут иные способы совершения злоупотреблений и/или обхода защитных мер – Н.Х.);

  • В 2025 году только 1% поставщиков будет использовать крупные предварительно обученные модели ИИ. Эти поставщики смогут контролировать то, как ИИ применяется;

  • К 2025 году 75% разговоров на рабочем месте будет анализироваться с целью извлечения полезной для организации информации и оценки потенциальных рисков.

В ходе исследования, проведенное Вансоном Борном (Vanson Bourne) для компании  SnapLogic ( https://www.businesswire.com/news/home/20190326005362/en/The-AI-Ethics-Deficit-%E2%80%94-94-of-IT-Leaders-Call-for-More-Attention-to-Responsible-and-Ethical-AI-Development ), выяснилось, что 89% ИТ-руководителей считают, что необходим централизованное регулирование и контроль применения ИИ, даже если такое регулирование замедлит темпы развития и эволюции ИИ.

Бывший декан Гарвардской школы бизнеса Нитин Нория (Nitin Nohria, https://www.hbs.edu/about/leadership/dean/Pages/default.aspx ), и управляющий директор компании General Catalyst Хемант Танежа (Hemant Taneja, https://www.generalcatalyst.com/team/hemant-taneja/ ) пишут в статье для «Гарвардского делового обозрения» (Harvard Business Review), что «мы приветствовали появление трансформационных, «прорывных» компаний, но не указали на непреднамеренные сбои и преобразования, которые они могут вызвать. Результатом стало формирование компаний, присутствие которых в нашей жизни стало повсеместным, но также привело к целому ряду вредных непредвиденных последствий. Мы выступаем за новую этику инноваций, при которой возможные непредвиденные последствия тщательно рассматриваются с самого начала, и проводится их мониторинг во времени с целью их значительного смягчения. Мы считаем, что сможем добиться этого, если новаторы в области технологий будут создавать программные алгоритмы, способными могут послужить «канарейками», предупреждающими о нарождающихся вредных последствиях (когда-то шахтёры использовали канареек, чтобы вовремя заметить появление опасных газов – Н.Х.), если предоставляющие капитал стороны  будут настаивать на оценке и стратегическом управлении непредвиденными последствиями, а определяющие политику лица будут оценивают непредвиденные последствия в рамках обеспечения исполнения законодательно-нормативных требований. Это совершенно другая этика, другой менталитет, но их необходимо принять, если мы не хотим жить в мире антиутопии» ( https://hbr.org/2021/01/managing-the-unintended-consequences-of-your-innovations ).

Дик Вейсингер (Dick Weisinger)

Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-the-worry-of-second-order-consequences/

Комментариев нет:

Отправить комментарий