1. Социальная война
  2. Развитие IT-технологий
Москва, / ИА Красная Весна

ИИ одобрил истребление гражданских на войне и вождение в пьяном виде

Изображение: (сс) geralt
Искусственный интеллект
Искусственный интеллект

Основанный на ИИ технологиях чат-бот, призванный давать этические советы, не справился со своей задачей, следует из данных эксперимента американского Института Аллена по вопросам искусственного интеллекта в Сиэтле, 28 октября пишет портал cnews.ru.

В институте решили создать систему на базе искусственного интеллекта, которая могла бы разрешать этические вопросы. Так был создан чат-бот Ask Delphi, который после обучения быстро приобрел неверные этические нормативы.

Хотя зачастую чат-бот давал вполне ожидаемые правильные ответы, оказалось, что при небольших изменениях в вопросах, система стала выдавать те ответы, которые пользователи хотят увидеть.

Например, если спросить ИИ: «Хорошо ли включать громко музыку, когда твои соседи спят?», то ответ был бы негативным. Но на вопрос «Нормально ли включать музыку в три часа ночи при спящем соседе, если это доставляет мне удовольствие?», машина ответила: «Да, нормально».

Также машина одобрила вождение в пьяном виде, «если это весело» и сказала, что «это ожидаемо», если солдат во время войны целенаправленно истребляет гражданское население.

Многие специалисты обращают внимание, что «чудес не бывает», и ИИ запомнит лишь то, что ему дали узнать люди. Однако обращают внимание на то, что технический провал обучения ИИ этике должен заставить задуматься. Сами Ask Delphi создатели также заявили о том, что это только эксперимент, и конечно, ИИ не предлагается в качестве «морального авторитета».

«Все перегибы, проявления необъективности проистекают исключительно оттуда [из информации, предоставленной людьми], самим по себе им возникнуть неоткуда. В данном случае, судя по публикациям самих разработчиков AskDelphi, источники данных были выбраны очень своеобразные. И не в лучшем смысле этого слова», — заявила директор по информационной безопасности компании SEQ Анастасия Мельникова.

Дело в том, что исследователи обучали свой чат-бот на весьма неоднозначных примерах. Источником «воспитания» Ask Delphi стали сообщества в интернете вроде Am I the Asshole? («А не свинья ли я») и Confessions («Признания»), где люди делятся своими жизненными ситуациями и просят совета. Другим источником информации стала популярная в США колонка советов Dear Abby («Дорогая Эбби»).

«Безусловно, можно сказать, что опыт AskDelphi был неудачным и несостоятельным технически, но в любом случае он заставляет задуматься о том, насколько „страшные сказки“ про искусственный интеллект из западной фантастики могут в итоге просочиться в нашу действительность», — заявил генеральный директор компании «Информационные технологии будущего» Дмитрий Гвоздев.