Чанишев Р.І.

Національний університет «Одеська юридична академія», кандидат юридичних наук, доцент, доцент кафедри інформаційних технологій

 

DEEPFAKES - ТЕХНОЛОГИЯ ДЕЗИНФОРМАЦИИ

О новой технологии, позволяющей заменять на видеоизображении лицо одного человека – лицом другого человека, стало известно в 2017 году, когда в сети появились первые подобные ролики. Сущность метода заключалось в том, что полученное в результате обработки исходного материала изображение лица не только имело внешнее сходство с оригиналом – но и копировало его мимику.

Такая технология получила название «deepfake», от слияния двух терминов – «Deep Learning» («углубленное (расширенное) обучение») и «fake» («подделка»). Первый из терминов был использован по причине того, что для создания такого изображения используется технология обучаемых нейросетей (один из вариантов создания «искусственного интеллекта»).

Для создания дипфейка используются видеоизображения реальных людей (чем больше их используется, тем лучше). Один набор видеофайлов содержит изображения оригинального образа человека (например, эпизоды с его выступлениями на трибуне), назовем его «лицо А», другой набор подготавливается для подмены и содержит видео другого человека, назовем его «лицо лицо F».

Обучаемая нейросеть создается программным путем на базе обычного компьютера. Поскольку для создания дипфейка требуется большая вычислительная мощность, необходимые вычисления производятся с помощью процессоров мощных видеокарт. При наличии финансовой возможности - для проведения вычислений могут быть арендованы облачные серверы, в таком случае скорость создания и качество полученного дипфейка будут определяться только величиной потраченных на такую аренду денег.

В процессе обучения нейросеть строит модель лица, пытаясь опытным путем определить его наиболее характерные элементы. Модель строится в динамике, отслеживая все изменения и особенности мимики лица.

Затем по созданной модели воссоздается новое изображение. Нейронная сеть сравнивает исходное и полученное по модели изображение и находит различающиеся элементы, после чего автоматически вносятся необходимые корректировки. После внесения исправлений процесс повторяется. Число таких повторных попыток может измеряться сотнями тысяч.

Первоначально обучение осуществляется раздельно для «лица А» и для «лица F». После достижения удовлетворительных результатов на вход нейросети, обученной воссозданию «лица А» подается изображение «лица F», а на вход нейросети, обученной воссозданию «лица F» подается изображение «лица А».

Полученный результат подвергается окончательной корректировке. В итоге получается фейковое изображение, на котором при том же положении «лица А» в пространстве – вместо него будет отображаться «лицо F». При этом мимика «лица F» будет соответствовать мимике «лица А». [1]

Поскольку проблема подделки голоса человека была решена много раньше, на видеоизображение накладывается звуковая дорожка с фейковым аудио.

Тем самым можно создать у посторонних людей («целевой аудитории») впечатление, что обладатель «лица F» во время выступления произнес компрометирующую его речь или находился в компрометирующей его обстановке.

Если ранее сомнению подвергались письменные документы и фотографии, затем – записи голоса, то к настоящему времени и любая видеозапись уже не может считаться достоверной по умолчанию.

К настоящему времени дипфейки создаются, в основном, для четырех  вариантов применения:

  • в качестве шутки или для розыгрышей;
  • для политической рекламы;
  • для осуществления мошеннических действий;
  • для дезинформации населения.

Первый вариант можно проиллюстрировать размещенным на YouTube видео, на котором программист Али Алиев демонстрирует, как, якобы случайно, к конференции в Zoom присоединяется сам Илон Маск. При этом дипфейк Маска способен реагировать в режиме реального времени на обращенные к нему реплики и отвечать на конкретные замечания. [2]

Для политической рекламы дипфейк был использован перед выборами в Законодательное собрание Дели (Индия). На распространённом в социальных сетях видео президент партии Бхаратия Джаната Маноджа Тивари критиковал действующее правительство Дели. Для разных целевых аудиторий было создано два видео, на первом из которых Тивари произнес речь на английском языке, а на втором – на диалекте хариани языка хинди. Дипфейк был создан по той причине, что Тивари никогда не умел говорить на диалекте хариани. При этом мимика его лица и движения губ полностью соответствовали произнесенному им тексту. [3]

Данная практика, возможно, получит в дальнейшем широкое распространение в странах, избиратели которых говорят на разных языках.

Третий вариант уже неоднократно пытались применить при совершении мошеннических действий с целью выманивания денег. При этом дипфейки маскировались под низкокачественное изображение, переданное в режиме видеоконференций.

Такой вариант «развода» опасен для легковерных людей, находящихся в стрессовых ситуациях (когда под угрозу поставлена жизнь, здоровье или свобода их самих или их близких). Со временем любое подобное видеосообщение будет подвергаться все большему сомнению. Вероятно, и это может привести к негативным последствиям, когда реальные просьбы о помощи будут отвергнуты из опасения возможных мошеннических действий.

Четвертый вариант, по моему мнению, является наиболее опасным, так как с его помощью можно активно манипулировать общественным мнением, создавая напряженность в обществе и вызывая негативную реакцию, которая может вылиться в реальное физическое насилие. Конечно, истина в итоге восторжествует, но до ее выяснения уже могут произойти необратимые события.

Так, 6 июня 2011 года, в блоге Амины Арраф, позиционирующей себя как лесбиянку и как участницу протестного движения в Сирии, появилось сообщение о том, что три неизвестных человека похитили Амину в центре Дамаска.

О похищении сообщили в газетах The Guardian, The New York Times, по телеканалам Fox News, и по CNN, что привело к началу кампании «освободите Амину» в Веб и распространению постеров с этим призывом.

Однако, через шесть дней выяснилось, что на самом деле блог вел 40-летний американец из штата Джорджия по имени Том. [4]

Эта история показала, с какой легкостью можно мистифицировать современное общество, если дезинформация будет соответствовать стереотипам, распространённым в обществе. И если такая дезинформация будет дополнительно подкреплена соответствующим дипфейком, ее воздействие может стать необратимым – когда массы поверят ей, а не последующим опровержениям со стороны официальных СМИ и государственных органов.

Растущая опасность направленной дезинформации привела к необходимости создания средств, позволяющих в автоматическом режиме распознавать в видеороликах применение дипфейк- технологий.

Такое распознавание может быть осуществлено путем анализа видеоизображения на предмет наличия специфических артефактов, возникающих при наложении элементов от разных изображений.

Этот анализ производится теми же методами, что применяются при создании самих дипфейков. Отмечается, что такие методы являются палкой о двух концах, так как их результатом может стать накопление результатов глубокого обучения, утечка которых приведет к созданию более совершенных дипфейков, образуя тем самым замкнутый круг.

Тем не менее, компании Facebook и Microsoft, совместно с коалицией «Партнёрства по искусственному интеллекту во благо людей и общества» (PAI), объявили о начале конкурса по разработке технологий распознавания дипфейков. [5]

Соответствующие разработки осуществляются и в компании Google. В одном из ее технологических подразделений была создана программа Assembler, позволяющая находить элементы дипфейков в видеоизображениях. [6]

Не осталась в стороне от этой борьбы и Украина.

Для зашиты информационного пространства Украины от дезинформации и гибридных угроз министерством культуры, молодежи и спорта Украины был разработан законопроект о противодействии дезинформации.

В законопроекте предусматривается введение уголовной ответственности за распространение дезинформации, создание должности Уполномоченного по вопросам информации и введение индекса доверия средствам массовой информации. [7]

Список использованной литературы:

  1. Timothy B. Lee I created my own deepfake—it took two weeks and cost $552 [Electronic resource]. - URL: https://bitly.su/3f1thpW. - Last access: 10.05.2020.
  2. Программист создал дипфейк с Илоном Маском в реальном времени в режиме видеоконференции [Электронный ресурс]. – URL: https://bitly.su/44GF. – Дата обращения: 20.04.2020 р.
  3. В Индии дипфейк использовали для «позитивной» избирательной кампании [Электронный ресурс]. – URL: https://bitly.su/MCMPc. – Дата обращения: 20.04.2020 р.
  4. Martineau P. Internet Deception Is Here to Stay—So What Do We Do Now? [Electronic resource]. - URL: https://bitly.su/cEVnQGP1. - Last access: 10.05.2020.
  5. Creating a data set and a challenge for deepfakes [Electronic resource]. - URL: https://bitly.su/cEVnQGP1. - Last access: 10.05.2020.
  6. Cohen J. Disinformation is more than fake news [Electronic resource]. - URL: https://bitly.su/FHmtR4c. - Last access: 10.05.2020.
  7. Про протидію дезінформації. Презентація законопроекту [Електронний ресурс]. – URL: https://bitly.su/MCMPc. – Дата звернення: 20.04.2020 р.