Английские ученые предупредили депутатов об опасности ИИ

Цитата из К/Ф «Терминатор» Реж. Джеймс Кэмерон США 1991
Цитата из К/Ф «Терминатор» Реж. Джеймс Кэмерон США 1991

Исследователи искусственного интеллекта предупредили британских депутатов, что разработка «сверхчеловеческого» искусственного интеллекта может привести к уничтожению человечества, сообщила 27 января газета The Independent.

Комитет Палаты общин по науке и технологиям заслушал мнение исследователей из Оксфордского университета, которые посоветовали регулировать ИИ так же, как ядерное оружие.

«Со сверхчеловеческим ИИ существует особый риск, относящийся к другому классу, а именно… он может убить всех», — сказал докторант Майкл Коэн.

«Если представить себе дрессировку собаки с угощениями: она научится выбирать действия, которые приведут к получению угощений, но если собака найдет шкафчик с угощениями, она сможет получить угощения сама, не делая того, что мы от нее хотели», — подчеркнул Коэн.

Комментарий редакции

Отметим, что на текущий момент ввиду того, что искусственный интеллект очень далек от того, чтобы действительно превратиться в самостоятельный интеллект, рассуждения об опасности ИИ как такового выглядят как попытка замаскировать действительное положение дел.

Компьютерные технологии, которые обозначаются в современном общественном сознании как «искусственный интеллект» всё больше начинают использоваться в различных сферах — от образования до военного дела. Беспилотники используют технологии ИИ для более точных ударов по противнику.

Сегодня ни у кого не вызывает сомнения, что за ударом каждого беспилотника стоит воля того или иного государства. Однако подобные рассуждения о самостоятельности ИИ могут привести лишь к тому, что хозяева этого ИИ будут снимать с себя ответственность за действия роботов.