Эксперт заявила, что системы ИИ пока далеки от возможности осознания себя
Проблема понимания, интерпретации фактов является пока непреодолимой для современных системы искусственного интеллекта (ИИ), заявила директор Института когнитивных исследований Санкт-Петербургского госуниверситета, заслуженный деятель науки и высшего образования РФ Татьяна Черниговская, 24 октября сообщает РИА Новости.
В ходе конференции «Искусственный интеллект и сознание» в президиуме Российской академии наук (РАН) Черниговская, в частности, сказала: «Искусственные системы пока не воспроизводятся сами. У них нет своего социума — они не общаются друг с другом, помимо нашей воли. Они не обладают обыденными знаниями, не имеют здравого смысла. Искусственные системы не в состоянии выстроить свою картину мира… Главная проблема — это проблема понимания, интерпретации фактов, а интерпретация зависит от научной парадигмы исследователя: данные не свободны от теории».
Она поставила под вопрос возможность достижения понимания системами ИИ, не имеющими никакого тела.
«При этом когницией занимается не только мозг, но и тело, а у искусственного интеллекта пока тела нет… Человеческий мозг — это семиотическое пространство, и люди мыслят семантически, прагматически и синтаксически, а ИИ — только синтаксически… Людям удается справляться с многофакторной нестабильностью в постоянно меняющемся мире — у нас в мозге есть для этого механизмы, а есть ли они у искусственного интеллекта?», — отметила ученый.
Отметим, нейросетевые языковые модели, являющиеся основой популярных чат-ботов, таких как ChatGPT, проходят обучение на больших объемах текстов и в дальнейшем нуждаются в корректировке ответов со стороны инженеров по данным, так как такие системы ИИ не могут оценивать истинность утверждений. Пользователи регулярно сталкиваются с ошибками и искажениями в ответах чат-ботов.