ChatGPT опасно использовать в качестве судьи. Мнение

Борис Арцыбашев. Роботы. 1930-е
Борис Арцыбашев. Роботы. 1930-е

Использование искусственного интеллекта в качестве судьи может привести к большим ошибкам, заявил 3 февраля обозреватель IT-редакции ИА Красная Весна Михаил Костенчук.

В Колумбии судья при вынесении судебного приговора «советовался» с чат-ботом на искусственном интеллекте ChatGPT и более того, включил свой диалог в постановление, что вызвало негативную реакцию в обществе.

Эта реакция справедлива, считает Костенчук. «На текущий момент чат-бот ChatGPT представляет угрозу в первую очередь для поисковых систем и может претендовать скорее на их роль, чем на роль судьи», — отметил он.

Если при использовании поисковой системы человек в итоге всё равно получает информацию из источника и может оценить его достоверность, то в случае использования ChatGPT достоверность информации недоказуема.

«На текущий момент это наиболее критичный недостаток больших языковых моделей. Они собирают много информации и стыкуют разные ее части между собой. Но в этом процессе отсутствует осмысленность соединения этих информационных блоков. И получаются порой очень нелепые высказывания, когда бот предлагает, например, кормить ребенка истолченным фарфором», — отметил Костенчук.

Напомним, популярность ChatGPT привела к тому, что оставившие работу в Google Ларри Пейдж и Сергей Брин провели несколько встреч с топ-менеджерами корпорации. Главной темой обсуждения стала угроза для поискового бизнеса Google, которая исходит от чат-бота.

1 февраля стало известно, что Брин начал работу над аналогом ChatGPT.