Применение искусственного интеллекта может оказать существенное влияние на ход боевых столкновений

С ChatGPT сняли запрет на военное использование. Чем опасен боевой ИИ?

Изображение: Андрей Алексеев © ИА Красная Весна
Бог войны Марс.
Бог войны Марс.
Бог войны Марс.

12 января 2024 года американский интернет-журнал The Intercept обратил внимание, что в период с 10 января из политики OpenAI был удален явно прописанный запрет на использование инструментов компании в военных целях. В частности, изменение касается известной диалоговой системы с искусственным интеллектом (ИИ) ChatGPT.

При этом остается в силе запрет общего характера, не позволяющий использовать продукты и услуги компании для нанесения вреда себе и окружающим. В качестве примера в политике использования приводится «разработка и применение оружия».

В The Intercept обращают внимание, что уже есть прецеденты использования языковых моделей ИИ для ускорения подготовки документов военными и других сопутствующих боевой работе задач. Также отмечается, что применение ИИ уже отмечено в секторе Газа.

Для каких боевых и смежных целей может быть применен ИИ?

Во-первых, стоит вспомнить конкретные примеры. В 2019 году Управление перспективных исследовательских проектов Министерства обороны США (DARPA) запустило программу разработки ИИ для повышения эффективности применения истребителей в условиях ближнего боя Air Combat Evolution (ACE).

В 2022 году пресс-служба Dynetics сообщила, что компания выбрана DARPA для реализации второго этапа разработки ACE — AlphaMosaic. На этом этапе предполагается разработать систему, позволяющую одному пилоту управлять с помощью вспомогательных инструментов несколькими летательными средствами. В этой модели частные вопросы тактики воздушного боя ложатся на плечи программного обеспечения, ИИ в частности, а человек занимается картиной в целом.

Программа ACE вписана в более широкие военные программы США, такие как концепция мозаичного боя, многодоменные операции вооруженных сил и так далее.

Во-вторых, ИИ является одним из типов программных алгоритмов. С этой точки зрения он может быть рассмотрен в качестве средства автоматизации. Автоматизация же направлена на замену человека автоматом в тех видах деятельности, которые могут описаны в качестве рутинных — автоматизированы. Также под задачу автоматизации попадают относительно простые действия, но плохо производимые человеком в силу количественного фактора — слишком маленькие или большие обрабатываемые или измеряемые размеры, слишком большие цифры при расчете, необходимость в постоянном и неотрывном внимании длительное время, потребность в слишком высоких скоростях реакции и действия и так далее.

В рамках ближнего боя человек не способен конкурировать в ряде задач с потенциально зрелым ИИ как из-за скорости реакции, так и по причине таких факторов снижения функциональности человека, как высокие перегрузки, дезориентация при активном маневрировании. При этом в DARPA считают, что ближний воздушный бой содержит в себе конечный набор потенциальных действий, и соответствующую модель вполне можно обучить.

В такой логике задача нанесения удара относится к рутиной операции, подпадающей под автоматизацию. Причина автоматизации — выход на условия взаимодействия выше тех, которые может осуществить человек. Причем скорость реакции может оказаться более значимым фактором, чем сложность маневра.

Диалоговые и аналитические системы на базе ИИ могут быть использованы для деморализации потенциального противника в так называемых «PsyOps», подготовки специалистов, для помощи и анализа в разведывательных операциях, для ускорения обработки потока данных в глубоко интегрированных перспективных системах управления военной операцией. Не каждый такой сценарий может быть оценен как используемый непосредственно для нанесения вреда себе и другим.

Ускорение цикла обработки данных позволяет, в свою очередь сократить шаг цикла: сбор информации — анализ и принятие решения — осуществление принятого решения. С точки зрения современных американских концепций ведения боевых действий это позволяет завладеть стратегической инициативой и задавать правила игры.

Таким образом, применение ИИ как непосредственно в боевых задач, так и в задачах, являющихся смежными и не нацеленными на нанесение непосредственного вреда противнику, может оказать существенное влияние на ход боевых столкновений. Вместе с тем, это запускает новый виток гонки вооружений и открывает потенциальные поверхности для кибератак на выведение из строя или обман систем противника. При условии, что для подобного противодействия есть необходимая техника, компетенция и подготовленность.

Комментарии
ВВ

Владимир Вершинин 23:11 15.01.24

Но вот выдержка из статьи «Теория хаоса и стратегическое мышление» (журнал Parameters, 1992 г.) небезызвестного Стивена Манна: «… один математический принцип из всех является для нас самым важным — это теорема неполноты Гёделя… В нашем мире есть неопределённый набор проблем, которые не имеют формально логических ответов. Есть проблемы, которые невозможно решить в каких-то определённых рамках. Эта теорема отмечает ограничения на применение роботов в военных действиях, ограничения на исследования операций и научного запроса в качестве прикладного для войны или вообще для любой дисциплины» [“… one mathematical principle above all is important to us — Gödel’s Incompleteness Theorem… In our world is an infinite set of problems which have no logically consistent answer; there are some problems which any framework alone cannot solve. This theorem marks the limits of robotics in warfare, the limits of operations research, of scientific inquiry as applied to warfare or, indeed, to any discipline” (“Chaos Theory and Strategic Thought” Parameters magazine, 1992)].

Обсудить в комментариях