Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 18 августа 2021 года на блоге компании Formtek.
От того момента, когда новая технология начинает применяться на практике, и до момента, когда хакеры начинают пытаться её использовать, зачастую проходит не так много времени. То же самое происходит и с искусственным интеллектом (ИИ). Шумиха вокруг ИИ и его реальное внедрение стремительно расширяются, и вполне естественно ожидать всплеска атак на системы безопасности, нацеленных на уязвимости искусственного интеллекта.
«Отравление данных» (data poisoning) - это один из методов, известных как «состязательное машинное обучение» (adversarial machine learning, https://en.wikipedia.org/wiki/Adversarial_machine_learning ), который злоумышленники начинают использовать против ИИ. При «отравлении данных» в набор данных вбрасываются данные, которые могут повлиять на результаты машинного обучения, смещая их в определенную сторону.
Но это, вероятно, только начало. Отчёт занимающейся вопросами безопасности фирмы Adversa (см. https://adversa.ai/blog/adversa-releases-secure-and-trusted-ai-report-with-exclusive-retrospective-trends-predictions/ ) показывает, что каждая из числа 60 наиболее часто используемых в отрасли моделей машинного обучения имеет как минимум одну уязвимость.
Генеральный директор фирмы Adversa Алекс Поляков (Alex Polyakov, https://www.linkedin.com/in/alex-polyakov-56220a31/ ) говорит, что «к сожалению, наше исследование показывает, что отрасль искусственного интеллекта в вызывающей тревогу степени не готова к волне предстоящих реальных атак на системы ИИ. Доверие общественности к ИИ и его надёжности станет основным критерием, определяющим, решатся ли общества и компании окончательно принять ИИ, или же столкнутся с новой «зимой ИИ»» (см. https://adversa.ai/blog/adversa-releases-secure-and-trusted-ai-report-with-exclusive-retrospective-trends-predictions/ ).
Исследователь и бывший аналитик консультационной фирмы Gartner Оливер Рочфорд (Oliver Rochford, https://www.linkedin.com/in/oliver-rochford-9791582/?originalSubdomain=uk ) полагает, что «укрепление доверия к безопасности и защищённости машинного обучения имеет ключевое значение. Мы просим людей довериться тому, что по сути является «чёрным ящиком», и для того, чтобы революция искусственного интеллекта увенчалась успехом, мы должны укрепить доверие. И в этот раз мы не можем на скорую руку решать проблемы безопасности. У нас не так много шансов сделать это правильно. Риски слишком высоки, - как и потенциальные выгоды».
Дик Вейсингер (Dick Weisinger)
Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-high-adoption-rates-attract-cyber-hacks-that-target-ai-and-ml/
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий