Атаковали Путина? Эксперт рассказал о монтаже голоса в политических целях

Изображение: (cc0)
Воспроизведение аудиозаписи
Воспроизведение аудиозаписи

Технологии DeepFake позволяют монтировать голос разных людей как в политических, так и мошеннических целях, заявил директор Group-IB Павел Седаков 9 июля корреспонденту ИА Красная Весна.

«После того, как подпольные программисты научили нейросети штамповать порноролики с лицами известных людей, технологии DeepFake стали широко использоваться как в политической борьбе, так и в интернет-мошенничестве», — отметил директор Group-IB.

Эксперт рассказал наиболее известный пример с использованием голосового DeepFake: «В Германии мошенники использовали голосовой DeepFake, чтобы выдавая себя в телефонном разговоре за руководителя компании, заставить руководителя дочерней фирмы из Великобритании перевести 220 000 евро на счет некоего венгерского поставщика. Глава британской фирмы заподозрил подвох, когда его „босс“ попросил о втором денежном переводе, но звонок при этом исходил с австрийского номера. К этому моменту первый транш уже поступил на счет в Венгрии, откуда деньги были выведены в Мексику».

Напомним, 9 августа нефракционный депутат Верховной рады Украины Андрей Деркач обнародовал аудиозапись якобы телефонного разговора Петра Порошенко с президентом России Владимиром Путиным от 30 апреля 2015 года.

На опубликованной аудиозаписи голоса, которые приписывают Петру Порошенко и Владимиру Путину, обсуждают в дружеском тоне предстоящие переговоры в Минске и то, как Порошенко осваивается на посту президента.