ИИ для написания программ делает не меньше ошибок, чем человек — Wired

Изображение: (cc0) picsa.tm
Искуственный интеллект
Искуственный интеллект

Инструмент помощи в написании программного кода на базе искусственного интеллекта (ИИ) GitHub Copilot делает не меньше ошибок, чем человек, 20 сентября сообщает электронный журнал о влиянии компьютерных технологий на культуру, экономику и политику Wired.

Специалисты по разработке программного обеспечения и анализу данных участвуют в тестировании Copilot. Некоторые из них отметили ускорение работы благодаря инструменту. Вместе с тем возникли и проблемы.

Wired приводит мнение специалиста по анализу данных одной из биотехнологических компаний Алекса Наки. Нака заявил, что использование инструмента не позволяет избавиться от ошибок в коде. Причем ошибки иной раз имеют несколько иной характер, чем обычно допускает сам специалист.

Исследователи из Нью-Йоркского университета проанализировали код, сгенерированный Copilot. Они выявили, что инструмент допускает очень много ошибок, связанных с информационной безопасностью. Написанные системой участки кода имели проблемы с безопасностью в 40% случаев.

Вместе с тем, такие проблемы не удивительны. Copilot построен на базе ИИ-модели OpenAI Codex, которая обучается на основе программного кода открытых репозиториев GitHub и доучивается на коде программиста, который использует инструмент. Такой подход наследует все проблемы программистов, на чьих продуктах обучена модель, и привносит свои неточности.