Будущее за применением боевого искусственного интеллекта — специалисты

Изображение: picsa.tm
Искуственный интеллект
Искуственный интеллект

Эксперимент по совместным боевым действиям людей и боевых машин с искусственным интеллектом (ИИ) выявил неожиданные проблемы, которые скрыты в природе человека. Об этом 19 ноября пишет ресурс Breaking Defense.

«ИИ — это сложно… а роботы глупы», — отметил из экспертов по итогам экспериментов с искусственным интеллектом, организованным Army Futures Command.

Однако эксперты соглашаются с тем, что искусственный интеллект необходим для победы в будущих войнах. Самым большим препятствием для ИИ сейчас может быть то, что люди непосредственно управляют им.

Для разрешения данного парадокса армия США и DARPA проводят различные эксперименты. Известно, что современные боевые роботы, которые армия использует в серии полевых экспериментов, в значительной степени управляются дистанционно. Каждой боевой машиной управляет человек-стрелок и человек-водитель, которые делают это дистанционно.

Однако в виртуальных военных играх армия ставит реальных солдат управлять смоделированными роботами, которые могут действовать гораздо более автономно, если люди им это позволяют.

Программа DARPA-Army под названием SESU (System-of-Systems Enhanced Small Unit) имитирует будущее подразделение размером от 200 до 300 солдат, усиленное большим числом автономных дронов и наземных роботов, пояснил участник обсуждения.

«Вся концепция программы в том, что стаи этих дронов используются по принципу «выстрелил и забыл (fire-and-forget)», — сказал один из экспертов. «Получив задание, они смогут самоорганизоваться, распознавать окружающую среду, распознавать угрозы, распознавать цели и бороться с ними». ИИ пока не может справиться с этим в реальном мире, и текущая политика Пентагона не позволяет этого, но ИИ может сделать это в упрощенной среде симуляции, которую DARPA и армия использовали для опробования будущих тактик.

«Когда мы дали возможность ИИ управлять виртуальными роями роботов и беспилотных транспортных средств», — сказал он, — «в ходе моделирования (боя — прим. ИА Красная Весна) мы обнаружили, что люди постоянно хотят их прервать».

Эксперты отмечают, что непосредственное подтверждение действий ИИ живым солдатом сильно замедляет боевую машину, которая работает значительно быстрее человека. Они считают, что ИИ, который должен получить разрешение человека на стрельбу, проиграет ИИ, который не будет иметь таких ограничений.

Эксперт отметил, что если необходимо передать изображение цели человеку, который должен посмотреть на нее, и дождаться, пока человек нажмет кнопку «огонь», «это вечность на скорости машины», — сказал он. «Если мы замедлим ИИ до человеческой скорости… мы проиграем».

Второй проблемой является связь по сети, которая должна работать постоянно. Если робот не может ничего сделать без человеческого разрешения, и он не может получить разрешение от человека, значит он ничего не сделает.

Кроме того, такая сеть должна передавать большие объемы информации — фото и видео высокого разрешения, чтобы человек мог оценить обстановку. А дело идет о поле боя, где противник глушит сигналы, взламывает сеть и ведет огонь по любому передатчику, который будет выявлен.

Самой коварной является третья проблема. Люди считают, что ИИ будет думать «по-человечески». Однако реальность, проверенная на большом числе подобных противостояний, показывает, что ИИ после перебора миллионов вариантов выбирает такие пути решения задач, которые человек и не предполагал.

«Вероятно, вы не хотите предполагать, что он будет вести себя так же, как человек», — сказал военный исследователь, команда которого провела сотни тысяч виртуальных боев. «Это, вероятно, один из основных выводов этих смоделированных сражений».

«Очень интересно наблюдать, как ИИ самостоятельно обнаруживает… некоторые очень хитрые и интересные тактики. [И вы говорите]: «Ого, это довольно умно, как он это понял?», — согласился старший научный сотрудник армии.

DARPA и разведывательное сообщество активно работает над «объяснимым ИИ», который не просто выдает результат, а еще и объясняет, почему он пришел к такому выводу, чтобы это мог понять человек.

К сожалению, машинное обучение работает, выполняя сложные вычисления статистических корреляций в огромных наборах данных, и большинство людей не могут понять эти вычисления. Даже ученые, которые занимаются искусственным интеллектом, написавшие исходные алгоритмы, не могут вручную проверить все вычисления, производимые компьютером.

Автор отмечает, что требование «объяснения» своих решений для ИИ является огромным тормозом в боевых системах. Это фактически тормозит ИИ до уровня человека.

«Было слишком много внимания на объяснимость (ИИ — прим. ИА Красная Весна, — сказал один ученый из частного сектора. «Это было бы огромным, огромным ограничением для ИИ».

Один из старших участников дискуссии считает, что новому боевому ИИ доверять сложно. Однако, по его словам, люди также не понимают, какие огромные вычисления происходят в их смартфонах, когда они фотографируют, что не мешает их использовать.

«Я не хочу участвовать в этих решениях. Я не должен участвовать в этих решениях. Мне нельзя разрешать участвовать в принятии этих решений», — считает ученый.

«Есть досадная тенденция людей пытаться управлять ИИ на микроуровне», — продолжил он. «Всем придется привыкнуть к тому, что ИИ существует. Это вокруг нас. Он с нами, и он думает и действует иначе, чем мы».

«Лица, принимающие решения, должны понимать», — согласился эксперт по экспериментам SESU, — «что ИИ в какой-то момент придется отпустить».

Автор статьи отмечает, что если эксперты по искусственному интеллекту правы, будущим воинам, возможно, придется отключить свои инстинкты и довериться компьютеру.