ChatGPT способен убедительно сообщать ложные сведения о конкретных людях
Чат-боты с искусственный интеллектом (ИИ) могут не только сочинять стихи и вести беседу, очень похожую на человеческую, они могут сообщать ложную информацию о конкретных людях, а в подтверждение своих слов указывать на несуществующие первоисточники, 5 апреля пишет The Washington Post.
На прошлой неделе профессор права Джонатан Терли получил тревожное письмо по электронной почте. В рамках исследования коллега-юрист из Калифорнии попросил чат-бот с ИИ ChatGPT составить список ученых-правоведов, которые допускали сексуальные домогательства в отношение кого-либо. В списке было имя профессора Терли. ChatGPT сообщил, что Терли допустил сексуальные домогательства в отношении своей ученицы во время поездки с классом на Аляску.
При этом чат-бот сослался на статью в Washington Post за март 2018 года в качестве источника информации. Но такой статьи не существовало. Никогда не было и школьной поездки на Аляску.
Чат-бот также сочинил, что мэр округа Хепбёрн Шин в Австралии Браян Худ отсидел срок в тюрьме за взяточничество. Мэр теперь подает в суд на компанию OpenAI за клевету.
«Склонность ИИ генерировать потенциально опасные ложные сведения вызывает опасения по поводу распространения дезинформации и новые вопросы о том, кто несет за это ответственность», — говорится в статье.