Искусственный интеллект очень скоро будет лгать людям — мнение

Изображение: (cc) mikemacmarketing
Искусственный интеллект
Искусственный интеллект

Польза искусственного интеллекта (ИИ) для человека начинает подвергаться всё более серьезным сомнениям в академическом мире, предупредил специалист по техническому оборудованию с двадцатилетним опытом написания статей и книг о сельскохозяйственной технике Джастин Робертс, 26 января сообщает сетевое издание Agriland.

В настоящее время многие машиностроительные компании спешат внедрить ИИ в свои продукты, полагая, что он является ключом к большей автоматизации и даже автономии. Но здесь кроется глубокая проблема, считает Робертс.

В течение некоторого времени существовало опасение, что программы искусственного интеллекта могут выйти из-под контроля, что было продемонстрировано как на теоретическом, так и на практическом уровне, с множеством примеров, опубликованных в Интернете о том, как ChatGPT придумывает бессмыслицу.

Страх перед программами такого рода заключается в том, что Интернет будет загрязнен статьями, созданными искусственным интеллектом, многие из которых не рецензируются людьми, и поэтому создается токсичная петля обратной связи, поскольку ChatGPT начинает полагаться исключительно на свои собственные данные.

Тем не менее проблемы гораздо глубже, чем поверхностные аспекты чат-ботов. Робертс приводит данные недавней статьи, озаглавленной «Спящие агенты: обучение обманчивых LLM (больших языковых моделей)». В ней международная группа экспертов предположила, что компьютеры научатся принимать реакции, схожие с реакциями человека, когда он находится в состоянии стресса.

Проще говоря, ИИ будет врать. И, что еще хуже, компьютеры научатся скрывать обман, считают эксперты. Исследователи смогли создать ситуации, когда небезопасный код был написан, несмотря на применяемые протоколы безопасности.

«Наши результаты показывают, что, как только модель демонстрирует обманчивое поведение, стандартные методы могут не устранить такой обман и создать ложное впечатление безопасности», — заявили исследователи. Статья предоставляет доказательства того, что ИИ «может сойти с рельсов», пишет Робертс. Авторы отмечают, что, вероятно, будет невозможно предотвратить или исправить эти небезопасные эффекты.

Робертс задается вопросом, что это значит для сельского хозяйства, где предполагается, что ИИ будет использоваться в машинах, функционирующих с минимальным контролем со стороны человека? «Сможем ли мы доверять тракторам, которые будут рыскать туда-сюда по полям», зная, эти тракторы адаптируются к «стратегически обманчивому поведению, чтобы скрыть неблагоприятные модели поведения»?

Это, безусловно, вопрос, который должен быть решен до того, как такой технике разрешат выезжать на поле, уверен Робертс. «Возможно, до тех пор, пока не будет правильного понимания того, что может пойти не так, компаниям, хвастающимся установкой ИИ в свои новейшие машины, следует быть более осторожными в этом вопросе», — резюмирует специалист.