Системы ИИ могут привести к росту фиктивной информации — исследователь

Изображение: (cc) geralt
Искусственный интеллект
Искусственный интеллект

Рост использования систем искусственного интеллекта может привести к турбонаддуву фиктивной информации, заявил Гарри Лоу, исследователь Кембриджского университета 31 января в статье на ресурсе AI Business.

Неспособность понять смысл информации, с которой работает искусственный интеллект — «это не просто проблема доверия к сегодняшним системам машинного обучения», — считает Лоу.

Он подчеркивает, что на результатах работы сегодняшних систем будут обучаться системы будущего.

«Эта динамика ведет к образованию порочного круга, который не только угрожает турбонаддувом — из-за создания разумно звучащего, но неверного текста — создания фиктивных источников информации, но также создает проблему для поиска и извлечения точной информации в море вводящих в заблуждение данных», — подчеркнул эксперт.

Напомним, Лоу также сообщил, что системы искусственного интеллекта требуют работы большого числа людей для разметки информации и, тем не менее, приводят к множеству ошибок.

Читайте также: Системы ИИ, такие как ChatGPT, требуют огромной человеческой работы