ИИ-помощники могут стать самыми эффективными инструментами манипуляции людьми

Изображение: (сс0) pxhere.com
Марионетки
Марионетки

Microsoft продвигает повсеместное использование цифровых помощников с так называемым искусственным интеллектом (ИИ) в решении жизненных трудностей, но это может стать одним из самых эффективных инструментом манипуляции человеком, отмечает IT-редакция ИА Красная Весна.

15 января гендиректор Microsoft по ИИ Мустафа Сулейман заявил, что через пять лет у каждого человека будет цифровой компаньон. Этот помощник будет постоянно рядом с пользователем, будет знать его предпочтения и эмоции, чтобы помогать в решении проблем.

При этом нужно понимать, что ИИ-помощник наверняка будет работать на создателей, которые будут стремиться удержать внимание клиента и монетизировать получаемые данные. А управлять «хозяином» бот будет не через приказы, а через настройку опций в жизни.

Кроме того, такой всевидящий советник представляет огромный интерес для рекламодателей, политических технологов и, конечно, для мошенников. Очень велик соблазн получить доступ к управлению таким помощником, а развитие технологии ИИ уже сейчас резко увеличило возможности хакеров.

Есть и другая опасность. Учитывая масштабные утечки персональных данных из соцсетей, можно представить, что произойдет, если в руки злоумышленников попадет не просто анкета, а цифровая копия личности человека с его привычками и слабостями.

При этом возможно и то, что вскоре каждый сможет создать цифрового помощника, не имея навыков программирования. Но и независимый бот невольно станет манипулировать человеком. Зная его глубинные мотивы, ИИ-компаньон будет предлагать то, что пользователь предпочитает: товар, новостной повод или политическую позицию. Он будет подсовывать «объективную» информацию, подтверждающую убеждения владельца, усиливая заблуждения, когда они появятся.

Пророчество Сулеймана может обернуться антиутопией, где человек, уверенный в своей свободе, будет двигаться по заранее спроектированному маршруту. В погоне за идеальным слугой человек рискует стать марионеткой непрозрачного алгоритма.

Комментарии
Загружаются...