Ученые из Кембриджа обратили внимание, что ИИ не везде работает надежно
Системы на основе искусственного интеллекта (ИИ) не со всеми задачами справляются гарантировано надежно, считают исследователи отделения прикладной математики Кембриджского университета, 17 марта пишет британский журнал об электронике Electronics Weekly.
Исследователь из Кембриджа Андерс Хансен обратил внимание, что ИИ все чаще используют в областях, связанных с высоким риском, например, в диагностике заболеваний и автономных транспортных средствах.
«Если системы ИИ используются в областях, где они могут нанести реальный вред, если что-то пойдет не так, доверие к этим системам должно быть главным приоритетом», — заявил Хансен.
Ученые обратили внимание на работы Алана Тьюринга и Курта Геделя, в которых авторы показали, что в математике есть утверждения, истинность или ложность которых в отношении алгоритмов невозможно доказать. Эти работы не остановили развитие математики в указанных направлениях, но подтолкнули к поиску новых путей.
В 2000 году американский математик Стив Смейл предложил список из 18 нерешаемых математических задач. Последняя из задач — это «Выяснение пределов искусственного и человеческого интеллектов».
Ученые также считают, что практика применения ИИ намного обгоняет теорию. Зачастую различные идеи и решения перебираются, пока не обнаруживается некая рабочая комбинация на базе искусственных нейросетей. Но это порождает проблему недоказуемости надежности применяемого решения.
Поэтому, считают исследователи, необходимо создание объединенной теории аппроксимации, численного анализа и основ исчисления. Такая теория позволит определять, какие задачи можно надежно решать с помощью нейронных сетей, какие алгоритмы ИИ сделать надежными, а какие — нет.