В ИМЭМО РАН рассказали, как в будущем вырастет военная угроза людям от ИИ

Изображение: (cc) Dick Thomas Johnson
Терминатор
Терминатор

Военные в будущем могут начать чрезмерно доверять так называемому искусственному интеллекту (ИИ) и следовать рекомендациям машины без должной проверки, что может привести к соответствующим последствиям, заявила руководитель группы проблем информационной безопасности Института мировой экономики и международных отношений имени Е. М. Примакова (ИМЭМО) РАН Наталия Ромашкина 7 февраля РИА Новости.

«Одна из новых психологических угроз (военного применения ИИ — прим. ИА Красная Весна— со временем военное руководство может привыкнуть, что ИИ всегда прав. И тогда военные будут исполнять указания ИИ уже без столь тщательного анализа», — заявила Ромашкина. «Последствия понятны», — добавила она.

Аналитик сказала, что в условиях гонки военного использования ИИ есть вероятность зарождения новой логики, согласно которой отказ от выполнения рекомендаций ИИ может привести к поражению, потому что их может выполнить враг.

Напомним, 23 января основатель движения свободного программного обеспечения Ричард Столлман предложил называть искусственный интеллект притворным интеллектом, что является для ИИ более подходящим названием, поскольку он не умеет думать и просто генерирует результаты, не понимая того, что выдает пользователям.

Объявление высшим китайским руководством ИИ одним из основных элементов плана пятилетки с 2026 по 2030 годы указывает на возможную переоценку этой технологии, основанную на ожиданиях от нее, а не на реальных результатах, 31 января отмечает IT-редакция ИА Красная Весна.

Читайте также: Война с разумом, или Как нейросети меняют мир и человека

Читайте также: Мифологизация «искусственного интеллекта» и ее глобальные последствия