2
сен
2019
  1. Классическая война
  2. Автономное летальное оружие
Вашингтон, / ИА Красная Весна

В США идут дискуссии, в каком оружии допустим искусственный интеллект

Искусственный интеллект
интеллектИскусственный
Искусственный интеллект
Изображение: (cc) geralt

Использование искусственного интеллекта в системах вооружения должно быть ограничено, заявил 29 августа бывший заместитель военного ведомства США Роберт Уорк в интервью Breaking Defence.

По мнению Уорка, реальная опасность заключается в том, что компьютер и искусственный интеллект указывает человеку, когда нажать кнопку «огонь», особенно если речь идет о ядерном оружии.

Уорк упомянул о кампании Stop Killer Robots. Основная его претензия к этой кампании заключается в том, что она направлена против автономных летальных вооружений.

По мнению собеседника издательства, такие системы реально не существуют: «Если бы это было технически возможно, то абсолютно несомненно, что западные армии, и в особенности США, его бы использовали». Уорк упрекнул участников кампании, что они готовы жертвовать жизнями американцев и нести потери в том случае, если такое оружие будет создано: «Это неэтично по отношению ко мне и аморально».

Бывший замглавы Пентагона рассказал, что к запрету на создание и использование «боевых роботов» присоединились 113 НПО в 57 странах, а 26 государств, в числе которых Палестинская автономия и Ватикан, официально отказались от работ в этом направлении. Однако он сожалеет, что в этом списке нет России, Китая, США, их союзников. Он признает, что КНР выступает только за запрет на применение, но не разработку подобных вооружений.

Тревогу Уорка вызывает кошмарная перспектива управления ядерным оружием искусственным интеллектом. В качестве примера такой системы он назвал советский «Периметр», известный также как «Мертвая рука», который отдавал команду на запуск межконтинентальных баллистических ракет в случае регистрации сейсмических толчков от ядерных взрывов и невозможности соединиться с командным пунктом.

Бывший замминистра призвал собеседников представить аналогичную систему в Китае, которая бы сообщила, что все выглядит так, как будто Америка готовится нанести упреждающий удар.

Однако, по мнению военного, автономные системы способны спасать жизни. В качестве примера, как это можно осуществить, он назвал более точное наведение и помощь пилотам и наводчикам, чтобы не допустить огня по своим и гражданским.

Издательство приводит слова профессора университета Беркли Стюарта Рассела, который в свою очередь заявил, что наибольшую опасность представляют дешевые дроны, поскольку они могут стать инструментом массовых убийств для террористов и безжалостных режимов. Рассел не согласился с оценкой Уорка как «аморальной» по причине того, что оружие разнообразно и не может быть охвачено едиными критериями.

Ученый отметил, что не наблюдает попыток отказаться от «умного» оружия со стороны крупных государств, и резюмировал, что «необходим глобальный запрет».

Напомним, что тема автономных боевых систем периодически выносится на международную повестку, в том числе и на весьма высоком уровне. Однако международные отношения складываются таким образом, что государства, имеющие значительный оборонный потенциал, не предпринимают шагов к разоружению.

В частности, новая военная доктрина США допускает нанесение ядерного удара в ответ на кибератаку, прекращают свое действие договоры СНВ-3 и о запрете РСМД. Также говорится о милитаризации космоса.

Нашли ошибку? Выделите ее,
нажмите СЮДА или CTRL+ENTER