Россия применяет «дипфейки» против украинских беженцев 

Это кадр из поддельного видео, на котором виден якобы бывший президент США Барак Обама, вероятно, созданного при помощи технологии картирования лиц. Эта технология позволяет любому человеку создавать «дипфейки».

Россия использует искусственный интеллект для создания провокационных дипфейков, нацеленных на украинских беженцев.

Как показало совместное расследование Русской и Украинской служб «Голоса Америки», российские дезинформаторы «украли» личность украинской девушки-подростка, вынужденной переселиться в США.

Видео, о котором идет речь, представляет собой телевизионный новостной репортаж о юной беженке из Украины и ее опыте учёбы в частной школе в США. Однако чуть позже зритель видит переполненные школьные коридоры, пакеты с крэком и кокаином. Закадровый голос, похожий на голос этой украинской девушки, описывает ужасы обучения в американских школах, используя расистские стереотипы.

«Я понимаю, что довольно дорого учиться в частной школе. — говорит она. — Но было бы несправедливо, если бы моя семья была вынуждена платить за мою безопасность. Пусть это делают американцы».

Эти заявления — фальшивка. Только первая часть видео — кадры с подростком — настоящая. Закадровый голос, вероятно, был создан с помощью искусственного интеллекта, чтобы реалистично скопировать голос подростка. Результат этого процесса называется «дипфейком».

Похоже, что это и подобные видео – часть российской информационной операции под названием «Матрешка», которая теперь нацелена на украинских беженцев.

«Голос Америки» обнаружил, что кампания опубликовала в соцсетях X и BlueSky два видео с дипфейками, которые представляют украинских беженцев в качестве корыстных людей, не испытывающих благодарности к США и европейским странам, оказывающим им поддержку. Кампания также распространила дипфейки авторитетных западных журналистов, утверждающих, что не Россия, а Украина распространяет ложь.

По мнению Antibot4Navalny – аккаунта в соцсети X, который исследует российские информационные операции и широко цитируется ведущими западными СМИ – эти видеоролики отражают новейшую стратегию российской дезинформационной кампании «Матрешка». Россия регулярно отрицает свою причастность к созданию и распространению ложной информации. При этом ее готовность направить свои информационные операции против беженцев, даже несовершеннолетних, демонстрирует, насколько далеко Кремль готов зайти в попытках остановить поддержку Западом Украины.

Нацеливание на жертв

Второе видео, задействованное против украинских беженцев, начинается с отрывка из настоящего репортажа, в котором украинская женщина выражает благодарность за оказанную Данией поддержку. После этого в видео звучит вероятный дипфейк голоса женщины, которая жалуется, что украинские беженцы вынуждены жить в маленьких квартирах и носить поношенную одежду.

Оба видео использовали украденные кадры из настоящих сюжетов авторитетных международных СМИ. «Голос Америки» не публикует эти видео целиком или частично и не упоминает названий изданий, чтобы не раскрывать личности беженцев, изображенных в дипфейках.

Этот прием — изменение высказываний человека при копировании его голоса — является новым для «Матрешки», сообщил Antibot4Navalny «Голосу Америки»: «Последние недели почти все ролики были построены по одной схеме».

Но эксперты говорят, что стратегия подделки реально существующих сообщений СМИ, нацеленных на дискредитацию беженцев, не является новой.

Роман Осадчук, научный сотрудник Лаборатории цифровых криминалистических исследований Атлантического совета, рассказывает, что в апреле 2022 года после ракетного удара России по украинскому железнодорожному вокзалу в Краматорске, в результате которого погибло более 60 мирных жителей, а более ста получили ранения и контузии, Россия подделала репортаж британского медиа Би-би-си – в нем виновниками трагедии были названы украинцы.

В тот же период, отметил он, Россия также распространяла дезинформацию в Молдове, направленную на то, чтобы настроить местное население против украинских беженцев.

«К сожалению, беженцы – это очень популярная, скажем так, мишень для российских дезинформационных компаний, при чем не только для атак на хост-коммьюнити (принимающую страну – прим. ред.) ... а также и в Украине», — сказал Осадчук «Голосу Америки».

Он отметил, что, когда российские операции по оказанию вредоносного влияния адресованы украинской аудитории, цель часто состоит в том, чтобы спровоцировать конфликт между теми, кто покинул Украину и был вынужден стать беженцем, и теми, кто остался в стране.

Однако подделки журналистских материалов, по-видимому, предназначены для того, чтобы повлиять на общественное мнение другим способом. Например, в одном видео, которое якобы содержит аудиозапись основателя расследовательского издания Bellingcat Элиота Хиггинса, утверждается, что наступление Украины на российскую Курскую область — блеф.

«Весь мир наблюдает за предсмертными спазмами Украины, — якобы говорит Хиггинс. — Больше нечего обсуждать».

В другом видео подделана личность Шаяна Сардаризаде, старшего журналиста Би-би-си, который якобы говорит, что «Украина создает фейки, чтобы организации, проверяющие факты, обвиняли Россию». Сардаризаде называет это частью «глобального обмана».

На самом деле оба видео – дипфейки. В комментарии «Голосу Америки» Хиггинс заявил, что все видео являются дипфейк-подделками его голоса. Он предполагает, что цель их распространения — привлечь внимание журналистов, проверяющих факты, и заставить случайно увеличить количество просмотров видео.

«Я думаю, тут речь больше об улучшении показателей, чтобы продолжать "доить" российское государство и получать деньги на свою деятельность», — написал он в электронном сообщении.

К моменту публикации этого материала Сардаризаде не ответил на запрос о комментарии.

Поддельное видео, реальный вред

Быстрое развитие искусственного интеллекта (ИИ) привлекло повышенное внимание к проблеме поддельных видео и изображений, созданных при помощи ИИ-технологий, особенно в плане создания компрометирующих изображений реальных людей без их согласия.

Исследователи подсчитали, что более 90% подделок в Интернете носят откровенно сексуализированный характер. Они использовались, в том числе, против знаменитостей. Дипфейки также применялись против политиков и кандидатов на государственные должности. Однако остается неясным, повлияли ли они на общественное мнение или результаты выборов.

Исследователи из Центра анализа угроз пришли к выводу, что «полностью синтетические» видео мировых лидеров часто бывают неубедительными и их легко разоблачить. Однако поддельные аудиозаписи могут оказаться более эффективными для влияния на общественное мнение.

Четыре видеоролика, продвигаемых в рамках российской операции «Матрешка», в которых в основном используется поддельное аудио, показывают, что опасность дипфейков не ограничивается сексуализированными изображениями или имитацией политиков. И если ваше изображение доступно в Интернете, вы мало что можете сделать, чтобы защитить себя.

Сегодня всегда есть риск «публичного распространения любой информации, включая ваш голос, внешность или фотографии», — сказал Осадчук, научный сотрудник Лаборатории цифровых криминалистических исследований Атлантического совета.

Ущерб может быть очень серьезным.

Белль Торек, адвокат, специализирующаяся на гражданских правах и политике в области технологий, рассказала «Голосу Америки», что люди, чьи образы используются без согласия, часто испытывают чувства унижения, беспомощности и страха.

«Они, как правило, говорят, что их доверие было разрушено. Осознание того, что их изображением манипулируют для распространения лжи или ненависти, может усугубить уже существующую травму, — сказала она. – И я думаю, что эти эффекты будут еще более усилены для сообществ (беженцев – прим. ред.), которые и так страдают от перемещения и насилия».

Насколько эффективны дипфейки?

Хотя относительно просто понять потенциальный вред, наносимый дипфейками, намного сложнее оценить масштабы их охвата и воздействия.

Пост в соцсети X с фальшивыми видеороликами беженцев получил более 55 000 просмотров. По словам Ольги Токарюк, старшего аналитика Института стратегического диалога, это говорит о значительном распространении: «Это еще не вирусный, но уже и не маргинальный контент».

Antibot4Navalny считает, что российские дезинформаторы часто искусственно увеличивают охват постов на X, используя подконтрольные им аккаунты, и их видят очень немногие реальные люди.

Но даже если большое количество реальных пользователей просмотрело дипфейки, это не обязательно означает, что видео помогло Кремлю добиться своих целей.

«Всегда сложно <...> доказать со стопроцентной корреляцией влияние этих дезинформационных кампаний на политику», — сказала Токарюк.

Благодарим Марию Ульяновскую за помощь в создании этого материала.