четверг, 20 октября 2022 г.

Искусственный интеллект как оружие массового поражения

Данная заметка Джона Торнхила (John Thornhill) была опубликована 15 сентября 2022 года на сайте французского издания «Новый экономист» (Le nouvel Ecomoniste).

Демократии должны без колебаний использовать искусственный интеллект против авторитарных режимов, которые без каких-либо сомнений сами будут применять ИИ во зло.

Мой комментарий: В современном западном политическом жаргоне «демократией», «демократическим» считается любой режим – какие бы преступления тот ни творил – если он следует политической линии США и их союзников. Любая же страна, сомневающаяся в мудрости Вашингтона, Лондона и Брюсселя, по определению недемократическая; а если во главе её стоит сильная политическая фигура – то ещё и авторитарная (совершенно независимо от того, каким путём данный лидер получил и сохраняет власть; ведь, как известно, в результате по-западному «честных» выборов к власти в принципе не могут прийти оппозиционные коллективному Западу политики) :)

Мир был бы намного темнее и печальнее, если бы нацистская Германия обогнала Соединенные Штаты в гонке по созданию первой в мире атомной бомбы. К счастью, саморазрушительная ненависть режима Адольфа Гитлера саботировала его собственные усилия. Закон 1933 года об увольнении «государственных служащих неарийского происхождения» лишил четверть немецких физиков университетских должностей. Как отметил историк Ричард Родс (Richard Rhodes), 11 из этих 1600 исследователей уже получили или собирались получить Нобелевскую премию. Впоследствии учёные-беженцы из нацистской Европы сыграли центральную роль в осуществлённом Соединенными Штатами «Манхэттенском проекте» (проект по созданию ядерного оружия в США – Н.Х.).

«Мучительный самоанализ, который всё ещё предстоит пройти ученым, участвовавшим в создании ядерного оружия, можно сравнить с тем, что предстоит исследователям сегодняшнего дня, разрабатывающим системы искусственного интеллекта, которые всё чаще принимаются на вооружение вооружёнными силами».

Гонка вооружений в области искусственного интеллекта

Война на Украине повысила актуальность данного вопроса. Ранее в этом месяце Россия объявила о создании специального департамента по разработке оружия на основе ИИ. Россия заявила, что её опыт на Украине поможет ей сделать свое оружие «более эффективным и умным». Российские силы уже задействовали автономный робот-сапер «Уран-6», а также беспилотный дрон-самоубийцу «Куб-БЛА», который, по словам его производителя, использует искусственный интеллект для идентификации своих целей (хотя эти утверждения оспариваются экспертами).

Мой комментарий: Попытки – и небезуспешные – использования искусственного интеллекта для выполнения разведывательных и боевых операций начались очень давно, не менее 40 лет тому назад; и если о них сейчас не вспоминают, то просто потому, что со временем технологии, рассматривавшиеся когда-то как передовые и попадающие в область искусственного интеллекта, стали сегодня привычными, общераспространёнными, присутствующими в каждом смартфоне… Но, само собой, ИИ становится по-настоящему страшен только тогда, когда – о, ужас! – он оказывается в руках у ненавидимой Западом России.

Президент России Владимир Путин говорил о «колоссальных возможностях» ИИ. По его словам, «тот, кто станет лидером в этой сфере, будет властелином мира». Однако усилиям Кремля по разработке оружия на основе искусственного интеллекта, безусловно, будет препятствовать недавний исход 300 тысяч россиян, многие из которых работают в технологическом секторе, а также низкая эффективность обычных вооруженных сил.

Мой комментарий: «Низкоэффективным» вооружённым силам России, победившим за последние годы в ряде тяжелых военных конфликтов, конечно же, ну никак не угнаться за «высокоэффективными» армиями Запада, на счету которых есть яркие «успехи» вроде фееричных «викторий» в Афганистане и Ираке…

Инициатива России последовала за прошлогодним заявлением Пентагона о том, что военное ведомство США активизирует свои усилия по максимальному использованию возможностей искусственного интеллекта. Министерство обороны США «работает над созданием конкурентного военного преимущества за счет внедрения и использования ИИ», - заявила заместитель министра обороны Кэтлин Хикс (Kathleen Hicks). Китай также разрабатывает ИИ для экономических и военных целей с очевидной целью обогнать Соединенные Штаты в «гонке вооружений» в сфере ИИ.

Этические сомнения

В то время, как большая часть дебатов по поводу использования ядерного оружия на протяжении десятилетий носила относительно недвусмысленный и ограниченный характер, обсуждение искусственного интеллекта, каким бы ужасающим тот ни был, является более запутанным и калейдоскопичным. На сегодняшний день только девять национальных государств разработали ядерное оружие. В войнах современности были применены только две атомные бомбы - в Хиросиме и Нагасаки в 1945 году (И кто же применил их? Об этом западные борцы за этику вспоминать почему-то не любят – Н.Х.). Их ужасная разрушительная сила сделала их последним и крайним средством ведения войны.

Искусственный интеллект, с другой стороны, - как отмечал опытный стратег Генри Киссинджер (Henry Kissinger). - менее на виду, более распределён и более непредсказуем из-за его более широкого использования, Возможно, многие рассматривают его скорее как усилитель ударной силы беспилотников, кибероружия, зенитных батарей или боевых частей. Некоторые стратеги опасаются, что западные демократии находятся в невыгодном положении по сравнению с авторитарными режимами из-за ужесточения этических ограничений. В 2018 году более 3000 сотрудников компании Google подписали письмо, в котором говорится, что компания «не должна выходить на поле боя», требуя (успешно) выхода её из проекта Пентагона Maven, предназначенного для изучения возможностей для применения ИИ на поле боя.

Международное регулирование

В настоящее время Пентагон подчеркивает важность разработки «ответственных» систем искусственного интеллекта, использование которых ограничивается демократическими ценностями, мерами контроля и управления, и законодательством. Война на Украине также может изменить общественное мнение, особенно в Европе. «Молодежь волнует изменение климата, а теперь молодых люди неравнодушны к тому, чтобы жить в открытом обществе», - говорит Торстен Рейл (Torsten Reil), соучредитель немецкого стартапа Helsing, использующего ИИ для обработки данных по безопасности с мест операций. «Если мы хотим жить в открытом обществе, мы должны быть в состоянии сдерживать врага, защищать себя - и делать это надёжно».

Для некоторых подобные разговоры – не что иное, как циничный ребрендинг индустрии смерти. Однако, как физики поняли во время Второй мировой войны, трудно оставаться морально безупречным, когда приходится делать ужасный выбор в условиях реального мира. К их чести, многие исследователи в области ИИ сегодня настаивают на заключении значимых международных соглашений для того, чтобы ограничить роботов-убийц, которые в противном случае вышли бы из-под контроля. Однако было бы неразумно отказываться от ответственного использования технологии ИИ для защиты демократических обществ.

Мой комментарий: К счастью, в сфере ядерного оружия заинтересованные стороны умеют, когда нужно, вести разговор непублично и без ханжества, понимая, что каждая из них собственное поведение считает ответственным и разумным, а поведение противостоящих сторон – глупым и агрессивным. Военный искусственный интеллект действительно крайне опасен, поэтому сократить свою активность и подчиниться единообразным международным ограничениям должны все стороны – в том числе и те, которые любят называть себя «демократиями».

Джон Торнхил (John Thornhill)

Источник: сайт издания Le nouvel Ecomoniste
https://www.lenouveleconomiste.fr/financial-times/lia-arme-de-destruction-massive/
https://www.pressreader.com/france/le-nouvel-economiste/20220916/281569474575359

Комментариев нет:

Отправить комментарий