Золотоверх Денис Олегович

студент 3-го курсу факультету кібербезпеки та інформаційних технологій
Національного університету «Одеська юридична академія»

 

ТЕХНОЛОГІЯ «DEEPFAKE»

Ми живемо у такий час, коли задля маніпуляції соціумом відбувається усвідомлене та системне розповсюдження дезінформації. Такі процеси відбуваються завдяки діяльності не індивідів-любителів, а злагодженим колективом спеціалістів, і, як наслідок, відбувається значне викривлення інформаційного, а особливо віртуального, як його частини, простору. Такі викривлення завжди матимуть певні наслідки, і у своїй більшості – негативні.

На сьогодні найвпливовішим форматом передачі інформації є відео, відеозапис. Адже воно передає інформацію візуально та за допомогою звуку, у вигляді рухомого зображення, а також звукозапису.

Діпфейк (англ. Deepfake) – методика створення зображення чи відео, що основана на технології штучного інтелекту. Назва походить від об’єднання таких слід як deep (з англ. deep – глибинний, такий, що використовує технологію глибинного навчання) та fake (з англ. підробка).[1]

Машинне навчання є галуззю штучного інтелекту, що вивчає комп’ютерні алгоритми із застосуванням статистичних моделей для розв’язання задач без використання докладних інструкцій, також вони надають комп’ютерам здатність покращувати свої результати з часом – «навчатися».

Глибинне навчання – підгалузь машинного навчання, об’єктом дослідження якої є алгоритми, що використовують штучну нейронну мережу.[2]

Більшість діпфейків знайшли своє застосування у порнографії. У мережі Інтернет знаходиться велика кількість відео-роликів порнографічного характеру, у яких зображено знаменитостей.

Діпфейки використовувались для хибного представлення діяльності відомих політиків. Обличчя президента Аргентини Маурісіо Макрі було замінено обличчям Адольфа Гітлера, Ангели Меркель – Дональдом Трампом.[3] Американська компанія  ЗМІ «Buzzfeed» створила відеоролик, у якому Американський президент Барак Обама розповідав про небезпечність діпфейків, його голос був згенерований алгоритмом, що працював на машинному навчанні.

Також зазнали впливу соціальні мережі, у яких з’явилася можливість заміни власного обличчя на персонажів у сценах з фільмів і телевізійних шоу, таких як Ромео та Джульєтта та Гра Престолів і т. д.[4]

Діпфейки були залучені у різного роду аферах. У 2019 році генеральний директор енергетичної фірми, що базується у Великобританії, був обманутий по телефону. Його змушували перевести 243 тис. євро на банківський рахунок в Угорщині. Було використано технологію створення звукозапису, яка імітувала розмову генерального директора дочірньої компанії. Але після трьох дзвінків зловмисника, його вимоги не задовольнили, його викрили через те, що він використав Австрійський номер телефону.[5]

Вплив діпфейків є значним у тому плані, що вони розмивають межу між вигаданим та реальним. Основна проблема полягає в тому, що людство може впасти в епоху, в якій вже не можна визначити, чи відповідає дійсності інформація, що транслюється ЗМІ.

Така небезпека пов’язана із стрімким розвитком технологій штучного інтелекту та комп’ютерної графіки.

Доцент з інформатики Хао Лі з Університету Південної Каліфорнії заявляв про те, що діпфейки, які створені для використання для досягнення зловмисних цілей, будуть ще шкідливішими, якщо нічого не буде зроблено для поширення обізнаності про технології їх діяльності.[6]

Список використаної літератури:

  1. Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise – Fox News. [Electronic resource]. - URL: https://bitly.su/IFkbGpf0. - Last access: 24.11.2019.
  2. Deep learning in neural networks: An overview – ScienceDirect [Electronic resource]. - URL: https://bitly.su/cWFXY. - Last access: 24.11.2019.
  3. Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos – Aargauer Zeitung [Elektronische Ressource]. - URL: https://bitly.su/jbvpL3J. - Letzter Zugang: 24.11.2019.
  4. Chinese Deepfake App Zao Goes Viral, Faces Immediate Criticism Over User Data And Security Policy – Forbes: [Electronic resource]. - URL: https://bitly.su/Y41L. – Last access: 24.11.2019.
  5. A Voice Deepfake Was Used To Scam A CEO Out Of $243,000 – Forbes: [Electronic resource]. - URL: https://bitly.su/SW3K. – Last access: 24.11.2019.
  6. Perfect Deepfake Tech Could Arrive Sooner Than Expected [Electronic resource]. - URL: https://bitly.su/lnTbft. – Last access: 24.11.2019.

 

Науковий керівник: доц. Чанишев Р.І.