Применение адаптивных нейросетей несет в себе потенциальную опасность — MIT

Изображение: Цитата из х∕ф «Золотая лихорадка». Реж. Чарли Чаплин. 1925. США
На краю пропасти
На краю пропасти

Применение оптимизирующих искусственных нейронных сетей открывает легко используемую уязвимость, следует из исследования Центра кибербезопасности Мэриленда. 6 мая об этом пишет журнал Массачусетского технологического института MIT Technology Review.

Искусственные нейросети стали одной из повсеместно используемых категорий вычислительных технологий. А огромные масштабы потребление электроэнергии технологиями искусственного интеллекта (ИИ) часто обсуждаются.

На смену нейросетям с монолитной архитектурой постепенно приходят адаптивные сети. Они позволяют минимизировать энергопотребление и ускорить работу. Для некоторых задач, например, классификации изображений имеет смысл предварительно оценить — стоит ли пропускать фотографию через самую большую нейросеть или достаточно простой, с малым количеством внутренних слоев.

Это также позволяет определить — стоит ли выполнять задачу на маломощной электронике (например, смартфоне) или отправить на обработку в облако.

В качестве примера может выступить изображение льва. Если это лев, сфотографированный крупный планом и при хорошем освещении, то с идентификацией справится простая нейросеть. Если же лев находится на заднем фоне и частично скрыт растительностью, то идентификацией лучше заниматься наиболее мощной нейросети.

Исследователи указывали на то, что простые целенаправленные атаки на информационные системы с адаптивными нейросетями могут привести к увеличению энергопотребления до уровня монолитных тяжелых нейросетей и даже более. Причем один раз подготовленная программа для атак на такие системы можно эксплуатировать с эффективностью +20-80% энергопотребления ко многим подобным системам.

Смысл атаки заключается в передаче системе на обработку специально обработанных изображений, либо иных классифицируемых данных, с добавлением шума. В таком случае адаптивная система потратит время и энергию как на определение какой нейросети передать на анализ данные, так и на работу самой тяжелой нейросети.

Исследователи считают, что пока эта уязвимость не слишком опасна, поскольку еще мало адаптивных ИИ-систем применяется в промышленно эксплуатируемых системах. Но если с ней ничего не сделать, то она позволит проводить масштабные атаки на информационные системы.