Нейросети показали себя плохими аналитиками
Передовые нейросети в ходе исследования со ставками на футбольные команды показали провальные результаты, и это свидетельствует о том, что модели так называемого искусственного интеллекта (ИИ) являются плохими аналитиками, отмечает IT-редакция ИА Красная Весна.
Исследователи лондонского стартапа General Reasoning в ходе эксперимента проверили восемь моделей, в том числе Claude Opus 4.6, GPT-5.4, Gemini 3.1 Pro и Grok 4.20. Им поручили ставить виртуальные £100 000 (10,5 млн руб.) на клубы Английской премьер-лиги в сезоне 2023–24 годов. Лучший результат — потеря 11% за три попытки, худший — проигрыш всех денег.
Результаты показывают не просто то, что нейросети — плохие советчики при ставках на футбол. Суть глубже: алгоритмы теряются в живом, меняющемся мире. Исследователи пришли к выводу, что модели плохо работают при длительном горизонте планирования.
Гендиректор General Reasoning Росс Тейлор, комментируя итоги исследования указал на то, что обычно тестирование нейросетей имеет серьезный недостаток, поскольку работают в «очень статичных средах», которые не имеют ничего общего с хаосом и сложностью реального мира.
«Если вы попробуете применить ИИ к реальным задачам, он справляется очень плохо», — резюмировал Тейлор.
Скорее всего, это не техническая проблема, которую решат через год, а предел для современных больших языковых моделей. Можно также добавить, что у ИИ нет такого качества как осторожность, поскольку он не ощущает ответственности за ошибки. Некоторые модели проиграли все деньги с первой попытки, что говорит об их «легкомысленности» при оперировании крупными суммами.
Инвестиции в ИИ растут бешеными темпами, но их отдача в сложных, динамичных процессах пока под вопросом. Нейросети могут отлично справляться с написанием программного кода, а с жизнью не очень. Настоящий интеллект — это не вычисление вероятностей, а способность действовать в условиях неполноты и неопределенности.
(теги пока скрыты для внешних читателей)