Доктор философии рассказал о проблемах развития искусственного интеллекта
Главная проблема искусственного интеллекта (ИИ) в том, что он не умеет выделять причинно-следственные связи, заявил доктор философии в области компьютерных наук Элиас Барейнбойм, 1 марта сообщил портал VC.RU.
Компьютерные системы могут выявить факт связи между двумя явлениями, но не способны сделать из этого вывод, что между явлениями есть причинно-следственная зависимость. Чтобы пояснить свою мысль, он приводит пример с дождем. На современном этапе можно запрограммировать ИИ так, чтобы он смог из наблюдаемых явлений сделать вывод, что если на небе есть тучи, то с большой вероятностью пойдет дождь. Но при этом он не будет «понимать», что дождь идет именно из туч, и без них дождя быть не может.
Как следствие, игровой ИИ способен обучиться играть в игру, используя метод проб и ошибок. Но, научившись играть в одну игру, он не может обобщить полученные знания и применить их в другой игре. Это происходит даже в тех случаях, когда игры имеют схожую механику.
Другим следствием невозможности установления причино-следственных связей является неспособность ИИ ставить мысленные эксперименты, то есть ИИ никогда не задастся вопросом «что будет, если поменять…». Например, анализируя статистику оценок школьников, ИИ может заметить тенденцию к ухудшению результатов, но он не может задаться вопросом, что нужно поменять в системе образования, чтобы улучшить их.
Элиас Барейнбойм уверен, что, решив эту проблему, можно было бы сделать такой ИИ, который смог бы помогать ученым в проведении экспериментов, предсказывая, какие эксперименты проводить стоит, а какие — нет, так как их результаты ничего не дадут.