Дипфейк — что это такое и как ему противодействовать?
В июне 2023 года представители комитета Госдумы по информационной политике сообщили о том, что в скором времени в российском правовом поле появится термин «дипфейк». Глава комитета Александр Хинштейн пояснил, что осенью в Думу будет внесен законопроект, который даст правовое определение «дипфейку».
Что такое дипфейк? Это изображение, видео, аудиозапись или текст, созданные искусственным интеллектом, перед которым поставлена задача имитировать внешность или речь другого человека. Компьютерная имитация выглядит настолько реалистичной, что может ввести в заблуждение наблюдателя, просмотревшего видео или прослушавшего аудиозапись. Созданная искусственным интеллектом цифровая копия может произносить слова, которые человек никогда не говорил, или же осуществлять «действия», которые его прообраз никогда не делал.
Нельзя сказать, что подобные имитации являются чем-то совершенно новым. Ведь и раньше специалисты могли подделывать изображения, видео- или аудиозаписи. Разница заключается в том, что до эпохи распространения технологий искусственного интеллекта созданием таких материалов могли заниматься только профессионалы, и на создание подделки уходило много времени. Сейчас, благодаря ИИ, имитации можно создавать быстро и без всяких усилий. Поскольку эти технологии могут быть использованы для введения человека в заблуждение, наступление эпохи дипфейков порождает большое число вопросов о доверии к информации, о будущем журналистики, о возможности использования этих технологий мошенниками и политическими аферистами.
Пока что дипфейки, созданные ИИ, обладают изъянами, благодаря которым внимательный наблюдатель во многих случаях может понять, что имеет дело с компьютерной имитацией. Однако в американских СМИ уже звучат прогнозы специалистов о том, в 2024 году дипфейки по качеству станут неотличимы от реальных аудио- или видеозаписей.
Что сулит наступление эпохи реалистичных дипфейков? Прежде всего, можно вспомнить, что и раньше изготовлением информационных подделок Запад никогда не брезговал. Ярким примером этого стал госсекретарь США Колин Пауэлл, который в 2003 году тряс в ООН пробиркой с неизвестным порошком и читал доклад о разработке в Ираке биологического оружия. Ирак разбомбили, а биологического оружия так и не нашли. Оказалось, что каждое слово в этом докладе было ложью.
Теперь представьте, какие возможности открываются перед фальсификаторами в эпоху, когда появилась легкая возможность создания правдоподобных фейков. Это оружие в информационной войне легко может быть повернуто против любой страны.
Корпорация RAND является одним из аналитических центров в США, которые взяли на себя разработку проблемы дипфейков. Это некоммерческий аналитический центр по глобальной политике, проводящий исследования для американской политической элиты. В 2018 году RAND выпустила доклад с выразительным названием: «Распад истины: первоначальное исследование уменьшающейся роли фактов и анализа в американской общественной жизни». Авторы доклада отметили несколько тенденций в информационной сфере: рост разногласий в оценках фактов, стирание границы между мнением и фактом, снижение доверия к ранее уважаемым источникам. В информационный век общество постепенно теряет ориентиры в информационном пространстве и может оказаться податливым для фейков.
В 2022 году американский эксперт по борьбе с дезинформацией и клинический психолог Тодд К. Хелмус опубликовал для корпорации RAND отчет «Искусственный интеллект, дипфейки и дезинформация». Автор заявляет, что при подготовке отчета он консультировался с 12 ведущими экспертами в области дезинформации, а также провел обзор опубликованной литературы по технологиям дипфейка.
Хелмус заявляет, что дипфейк может превратиться в информационное оружие. Дипфейковый контент может оказать влияние на исход политической борьбы, например, во время выборов. Он может усугубить социальные разногласия внутри страны, снизить доверие к власти или средствам массовой информации. Автор отмечает, что негативные последствия окажутся еще более пагубными для развивающихся стран в связи с низким уровнем образования, политической и социальной стабильности.
Вместе с тем Хелмус предупреждает, что преувеличивать эффективность дипфейков не стоит. Создать хорошо продуманный убедительный видео-дипфейк непросто и совсем недешево. Это требует качественного оборудования, участия профессионального актера, длительного обучения моделей ИИ, тщательной проверки результатов его творчества. Возможностей для создания высококачественных видео у любителей пока не имеется. Кроме того, качественный материал потребует длительной подготовки, а это существенно ограничивает область применения информационных фейков.
Автор отчета указывает, что за последние несколько лет возможности обнаружения дипфейков значительно улучшились. Однако быстро прогрессирует и разработка дипфейковых видео. Происходит то, что можно назвать «гонкой вооружений». Эта гонка, по словам Хелмуса, выгодна создателям дипфейкового контента, потому что они учатся устранять все недостатки создаваемых видео.
Со временем дипфейковый контент будет становиться всё более реалистичным и отличить его от настоящего станет очень сложно. Хелмус поясняет, что для борьбы с дипфейками в этих условиях могут быть использованы несколько подходов. Первый и самый очевидный — бороться с фальшивой видеопродукцией можно на государственном уровне. Это можно делать законодательно, привлекая к ответственности тех, кто использует эти технологии во вред человеку и обществу. Второе, государство может подготовить граждан к эпохе дипфейков, организуя обучение медиаграмотности. Это обучение направлено на то, чтобы научить человека критически относиться к полученным материалам, учиться анализировать источники информации, из которых эти материалы получены.
Другой подход заключается в том, чтобы усовершенствовать средства обнаружения дипфейков. Крупная база данных дипфейков позволит ИИ эффективнее обучаться в обнаружении подделок. Более того, если ограничить широкий доступ к наиболее эффективным детекторам дипфейков, это лишит возможности создателей дипфейков прорабатывать все недостатки своей продукции. Тогда специалисты, занятые борьбой с дипфейками, в нужный момент смогут выявить и разоблачить вредоносную для общества информацию.
Еще один интересный подход, предложенный западными специалистами: подбрасывать программам, использующим возможности ИИ, так называемые «радиоактивные» обучающие данные. Суть в том, чтобы заставить посторонний ИИ обучаться на примере данных, содержащих определенные незаметные для глаза метки. Тогда эти же метки ИИ начнет воспроизводить в создаваемых им дипфейках. Этот подход был протестирован на практике в 2020 году, и было доказано, что даже если 1% данных, на которых обучался ИИ, оказывался «радиоактивным», то с высокой долей вероятности можно было без труда выявить дипфейк.
Отчет «Искусственный интеллект, дипфейки и дезинформация» показывает, что американская элита серьезно относится к проблеме дипфейков, вопрос о противодействии фейкам прорабатывается на разных уровнях. Можно ли сказать, что и в России представители власти серьезно относятся к этой проблеме? Для ответа на этот вопрос приведем два примера.
В июне 2023 года, комментируя появление законопроекта, вводящего понятие «дипфейк», зампред комитета Госдумы по информационной политике Олег Матвейчев заявил, что хотя в настоящее время нейросети используются в первую очередь для развлечения, но через 3–5 лет возможностями нейросетей начнут активно пользоваться мошенники.
Ничего, кроме изумления, комментарий депутата вызвать не может. Какие несколько лет, если мошенники уже вовсю используют искусственный интеллект в своих мошеннических схемах? Специалисты Роскачества предупредили о случаях мошенничества по телефону, когда якобы родственник, попавший в беду, просит срочно перевести деньги. В марте 2023 года зампред Сбербанка Станислав Кузнецов рассказал, как мошенники при помощи дипфейка дали указание бухгалтеру, якобы от имени директора, перевести $100 тысяч на определенный счет. Парламентарий всего этого не знает?
Другой эпизод произошел в сентябре 2023 года. Александр Хинштейн заявил о высоком уровне защиты «Единой биометрической системы», которую в России активно продвигают для получения различных услуг, в том числе и банковских, без паспорта — по изображению лица и голосу человека. «Даже если рассматривать возможность утечки, воспользоваться похищенной биометрией можно будет максимум для того, чтобы подделать голос при звонке мошенника. Но это же можно сделать и проще — без утечек из баз, а с помощью программ для создания дипфейков», — заявил глава комитета.
Во-первых, почему мы не должны рассматривать возможность утечки, если серьезные утечки происходили из баз данных «Яндекса», социальной сети «ВКонтакте», «МТС-банка» и так далее? Во-вторых, возможности нейросетей растут поразительно быстро. Даже если сегодня мошенники при помощи ИИ не могут использовать слитую биометрию для крупного мошенничества (скажем, оформления кредита и перевода средств на другой счет), то уже завтра дело может обернуться совсем иначе.
Оба этих эпизода оставляют впечатление крайне легкомысленного отношения представителей российской власти к проблеме дипфейков. Но можем ли мы позволить себе подобное легкомыслие в условиях СВО и жесточайшей конфронтации с Западом?
Возможно, чиновники полагают, что смогут купить технологии распознания фейков. Однако по причинам, описанным в отчете корпорации RAND, самых передовых средств нам никто не продаст, а те, которые похуже, очень быстро устареют. Так не оставляем ли мы сами себя безоружными перед лицом врага, который будет использовать против нас самые грязные способы борьбы?