ChatGPT способен убедительно сообщать ложные сведения о конкретных людях

Изображение: Цитата из х/ф "Особое мнение". Реж. Стивен Спилберг. 2002. США
Чат-бот
Чат-бот

Чат-боты с искусственный интеллектом (ИИ) могут не только сочинять стихи и вести беседу, очень похожую на человеческую, они могут сообщать ложную информацию о конкретных людях, а в подтверждение своих слов указывать на несуществующие первоисточники, 5 апреля пишет The Washington Post.

На прошлой неделе профессор права Джонатан Терли получил тревожное письмо по электронной почте. В рамках исследования коллега-юрист из Калифорнии попросил чат-бот с ИИ ChatGPT составить список ученых-правоведов, которые допускали сексуальные домогательства в отношение кого-либо. В списке было имя профессора Терли. ChatGPT сообщил, что Терли допустил сексуальные домогательства в отношении своей ученицы во время поездки с классом на Аляску.

При этом чат-бот сослался на статью в Washington Post за март 2018 года в качестве источника информации. Но такой статьи не существовало. Никогда не было и школьной поездки на Аляску.

Чат-бот также сочинил, что мэр округа Хепбёрн Шин в Австралии Браян Худ отсидел срок в тюрьме за взяточничество. Мэр теперь подает в суд на компанию OpenAI за клевету.

«Склонность ИИ генерировать потенциально опасные ложные сведения вызывает опасения по поводу распространения дезинформации и новые вопросы о том, кто несет за это ответственность», — говорится в статье.