Эксперт Сhatham Нouse охладил пыл сторонников применения ИИ в бою

Искусственный интеллект
Искусственный интеллект

Применение боевых систем, использующих искусственный интеллект (ИИ), имеет множество ограничений и неоднозначных следствий, которые должны быть тщательно проанализированы, считает военный эксперт Афина Ясмин (Afina Yasmin), ее статья 27 августа была опубликована на сайте организации «Chatham House».

Она напомнила, что в США Агентство перспективных оборонных исследовательских проектов (DARPA) недавно провело заключительный раунд своих испытаний «AlphaDogfight», в котором алгоритм, управляющий моделью истребителя F-16, сражался с настоящим боевым пилотом ВВС в виртуальном воздушном бою, и, где алгоритм победил с разгромным со счетом 5:0.

Эксперт отметил, что новость о победе ИИ над пилотом в виртуальном воздушном бою очень воодушевила военных чиновников США: заместитель директора агентства DARPA отметил, что теперь эти инструменты «готовы к тому, чтобы создатели систем вооружений могли их использовать». По мнению эксперта, военные посчитали, что воздушный бой с использованием искусственного интеллекта обеспечит огромное преимущество, включая отсутствие у ИИ-пилота инстинктов самосохранения, присущих людям, способность постоянно маневрировать с высокими нагрузками, превышающим ограничения человеческого тела, и высокую точность прицеливания.

Однако эксперт утверждает, что результат этих испытаний не означает, что эта технология готова к применению на поле боя. Фактически, перед их развертыванием и использованием необходимо принять во внимание множество факторов, которые сделают использование ИИ в военном деле не таким радужным.

Во-первых, как и в случае со всеми технологиями, эффективность алгоритма в тестовой задаче обязательно будет отличаться от эффективности в реальных условиях. Например, Google Health разработал алгоритм, помогающий проводить исследование анализов на одно из заболеваний, связанных с диабетом. Хотя уровень точности алгоритма в лаборатории превышал 90%, вне лаборатории ИИ не смог показать ничего подобного. Так как при обучении алгоритма в лаборатории использовали данные высокого качества, то при работе с реальными данными в больнице, алгоритм отклонил более 20% реальных исследований, которые были признаны алгоритмом данными ненадлежащего качества. В результате автоматизация данного процесса оказалась трудоемким и дорогостоящим делом.

Точно так же виртуальные среды, подобные испытаниям «AlphaDogfight Trials», не отражают степень рисков, опасностей и непредсказуемости реальных боевых действий. Например, в упражнении по воздушному бою алгоритм обладал полной ситуационной осведомленностью и неоднократно обучался правилам, параметрам и ограничениям своей рабочей среды. Но в реальной ситуации на поле боя список неизвестных факторов огромен и неизбежно будет по ходу меняться: видимость может быть плохой, экстремальные погодные условия могут повлиять на операцию, а характеристики самолетов, а также поведение и действия противников будут непредсказуемыми.

Эксперт отметил еще одно ограничение, которое связано с параметрами оборудования, от которого зависят системы искусственного интеллекта. Датчики и компьютерные системы, работающие в связке с алгоритмом ИИ, имеют свои ограничения. Они могут быть выведены из строя противником, который может вмешаться и нарушить их работу. Кроме того, даже беспилотный самолет и его оборудование подвержено действию физических сил при экстремальных режимах полета или воздушного боя и это нельзя сбрасывать со счетов.

Одно из самых главных ограничений по использованию ИИ в бою являются вопросы, связанные с законодательством. Воздушный бой «AlphaDogfight» был сосредоточен исключительно на способности алгоритма успешно управлять самолетом и противостоять противнику, однако нет никаких гарантий, что действия боевого ИИ будут гарантированно находиться в рамках закона.

В вооруженном конфликте развертывание и использование систем ИИ на поле боя не является исключением из положений международного гуманитарного права (МГП). ИИ в бою должен уметь различать гражданских лиц, участников боевых действий и военные цели. Система должна определять, будут ли ее удары соразмерны установленной военной цели, оценкам сопутствующего ущерба. Кроме того ИИ должен будет принимать необходимые меры предосторожности, чтобы гарантировать, что атаки остаются в рамках закона.

Также эксперт считает, что очень важно, чтобы разработчики не забывали о проблеме «черного ящика» боевой системы с ИИ. Дело в том, что работа алгоритма настолько сложна, что люди не смогут понять, как система приняла то, или иное решение.

Эксперт отмечает, что необходимо не только решить проблему непрозрачности алгоритма не только для повышения его производительности с течением времени, но и для того, чтобы была возможность вести отчетности и расследовать случаи инцидентов, а также предполагаемых нарушений законодательства.

По мнению эксперта, алгоритмы становятся все более мощными, и нет сомнений в том, что они принесут огромные преимущества военным, однако она считает, что следует избегать чрезмерного ажиотажа по поводу надежности боевой системы ИИ, как с технической точки зрения, так и с точки зрения соблюдения правовых норм.

Она призвала разработчиков систем ИИ для боя нести ответственность за обеспечение надежности машин с учетом соображений, касающихся производительности и точности, аппаратных ограничений, а также соблюдения правовых норм. Это может помочь предотвратить инциденты в реальной жизни, которые являются результатом переоценки возможностей ИИ в военных операциях.