Чат-боты не смогли распознать сгенерированные видео — исследование

Чат-боты с так называемым искусственным интеллектом (ИИ) оказались неспособны распознавать видео, сгенерированные нейросетью Sora от компании OpenAI, говорится в исследовании компании NewsGuard, опубликованном 22 января на сайте организации.
Исследователи тестировали Grok, разработанный компанией миллиардера Илона Маска xAI, который ошибся в 95% случаев. У Gemini от Google этот показатель составил 78%. ChatGPT, разработанный той же компанией, что и Sora, в 92,5% случаев принял фейковое видео за реальное.
Такие разгромные данные были, когда с видео убирали плашку и водяные знаки Sora. Если водяные знаки оставляли, то Gemini верно выявил сгенерированные видео во всех случаях, Grok — в 30%, ChatGPT — в 7,5%. При этом ChatGPT один раз заявил, что ролик выпущен новостным агентством Sora News, которого не существует.
Grok отдельно протестировали на видео от нейросети Nano Banana Pro, выпущенной xAI. Как оказалось, в бота заложили функцию распознавать фейковые видео от продукта той же компании.
Стоит отметить, что вскоре после выхода Sora и заявления OpenAI, что видео от этой нейросети будут с водяными знаками, несколько компаний предложили бесплатные программы для удаления этих маркеров.
Читайте также: Мифологизация «искусственного интеллекта» и ее глобальные последствия