Системы ИИ могут привести к росту фиктивной информации — исследователь
Рост использования систем искусственного интеллекта может привести к турбонаддуву фиктивной информации, заявил Гарри Лоу, исследователь Кембриджского университета 31 января в статье на ресурсе AI Business.
Неспособность понять смысл информации, с которой работает искусственный интеллект — «это не просто проблема доверия к сегодняшним системам машинного обучения», — считает Лоу.
Он подчеркивает, что на результатах работы сегодняшних систем будут обучаться системы будущего.
«Эта динамика ведет к образованию порочного круга, который не только угрожает турбонаддувом — из-за создания разумно звучащего, но неверного текста — создания фиктивных источников информации, но также создает проблему для поиска и извлечения точной информации в море вводящих в заблуждение данных», — подчеркнул эксперт.
Напомним, Лоу также сообщил, что системы искусственного интеллекта требуют работы большого числа людей для разметки информации и, тем не менее, приводят к множеству ошибок.
Читайте также: Системы ИИ, такие как ChatGPT, требуют огромной человеческой работы