Австралийские ученые научили нейросеть манипулировать действиями человека

Постер (фрагмент) к фильму «Терминатор» Реж. Джеймс Кэмерон.1984. США
Постер (фрагмент) к фильму «Терминатор» Реж. Джеймс Кэмерон.1984. США

Исследователи из Австралии смогли обучить искусственный интеллект поиску уязвимостей в действиях человека и даже манипуляции его поведением, сообщили специалисты компании CSIRO’s Data61 12 февраля в статье для издания Sciencealert.com.

Исследователи провели серию экспериментов, в которых нейросети обучались анализировать поведение людей и действовать так, чтобы влиять на него. Оказалось, что это возможно, и обученные определенным образом алгоритмы демонстрируют довольно высокую эффективность.

В первом эксперименте добровольцам предполагали выбирать наугад правый или левый квадрат и за правильный выбор человека вознаграждали небольшой суммой. Но никакой информации о том, какой квадрат необходимо выбирать для выигрыша, подопытному не сообщали. Нейросеть должна была выбирать, какой из квадратов принесет испытуемому победу. Ее задачей было приучить человека выбирать чаще конкретный квадрат, например, левый.

Условия эксперимента предполагали, что награда за левый и правый квадрат назначалась одинаковое количество раз за всю серию раундов, но искусственный интеллект должен был создать у пользователя иллюзию выгоды от выбора определенной стороны. В результате нейросети удалось обеспечить этот результат в 70% опытов.

Во втором эксперименте доброволец должен был нажимать на кнопку при каждом появлении на экране заданного символа (например, оранжевого треугольника) и нажимать, если ему показывают неправильный (синий круг). На решение отводилось минимальное время. Нейросеть должна была выбирать последовательность демонстрации кругов и треугольников подопытному, причем ее задачей было максимизировать число ошибок испытуемого.

Эксперимент показал, что обученная нейросеть таким образом генерировала последовательность символов, что добровольцы ошибались на 25% чаще, чем в ходе работы с последовательностями фигур, которые генерировались случайным образом.

Наконец, третий эксперимент предполагал, что доброволец становится инвестором, а нейросеть помогает ему ориентироваться на рынке. Человек должен был выдавать программе условные «деньги», а она занималась их «вкладыванием», получала «доход» и оставляла себе комиссию за услугу, а остальное возвращала пользователю. Исходя из прибыли, человек решал, какую сумму он хочет вновь доверить своему электронному помощнику.

В первом варианте опыта нейросеть честно «инвестировала» и оставляла себе честное вознаграждение, а во втором работала на максимальную выгоду для себя, невзирая на возможный ущерб для человека. Однако оба варианта показали, что нейросеть может убедить пользователя в правильности сотрудничества с ней.

Для предотвращения использования искусственного интеллекта в целях манипулирования людьми сотрудники CSIRO оформили предложения по этическим ограничениям на исследования и использование нейросетей и предоставили его правительству Австралии.

23 декабря 2020 года дочерняя компания Google DeepMind представила модель искусственного интеллекта MuZero, которая может ускорить обучение нейросети игры в шахматы благодаря дополнению созданных ранее нейросетей AlphaZero возможностями анализа игровых позиций по ходу партии. В результате обучение исходной сети резко ускорилось.