Медійна реальність у стилі deep fake

У той час, коли правдивість інформації ризикує стати новою валютою, а терміни “медіаграмотність” та “факт-чекінг” входять в побутовий словниковий запас, світ вигадує більш витончені способи випробувати на достовірність сучасні медіа. Назва цьому явищу – deep fake – термін, що складається з двох понять: “deep learning” (глибинне навчання) та “fake” (підробка, несправжність). А разом – навчання штучного інтелекту задля створення цілеспрямованого фейку. На глобальний рівень тема deep fake вийшла у 2017 році. Тоді був опублікований порноролик, в якому обличчя героїні замінили на обличчя ізраїльської акторки Галь Гадот, яка зіграла Диво-жінку у фільмі “Wonder woman”. Відтоді deep fakes активно використовуються не лише для підробки порно, а й для шахрайства… а також маніпуляцій під час виборчого процесу. Тож виникає купа питань, які потребують як і термінових реакцій, так і програмних рішень: як працює згадана сфера, чи під загрозою майбутнє усіх медіа, чи можливо з цим боротись лише законодавством. І взагалі – чи потрібно вважати глибинні підробки глобальною загрозою.


Чи існує профільне законодавство?

Перш за все, варто почати з визначення. Як зазначалось раніше, концептуально поняття “deep fake” – глибинна підробка, виконана з використанням штучного інтелекту – акцентує увагу на способі утворення таких явищ та спрямованості умислу автора. Причому, результат такої діяльності має бути вкрай правдоподібним Тому, потрібно розібратись , як подібні підробки спрацьовують для глядачів. Зокрема, у статті “Protecting World Leaders against Deep Fakes” автор визначає три види найпоширеніших глибинних підробок в медіа:

  1. Заміна обличчя, коли у відео обличчя актора автоматично підміняється обличчям іншої людини. Цей тип техніки застосовувався для вставки голів відомих акторів у різноманітні фільми, в яких вони ніколи не з’являлися. А ще для створення порнографії без згоди згаданих осіб. Одним з останніх прикладів став додаток Zao, користувачі якого можуть “приміряти” зображення власного обличчя замість обличчя знаменитостей в окремих відео.
  2. Синхронізація губ, за якої вихідне відео модифіковане таким чином, що область рота узгоджується з неоригінальним, іншим аудіозаписом. Наприклад, актор та режисер Джордан Піл подав особливо переконливий приклад, опублікувавши відео з екс-президентом США Бараком Обамою, в якому оригінальна промова замінена на провокативні фрази про президента Трампа. Іншим прикладом є застосунок Duplex Google, який імітує голос людини для замовлення їжі в закладах харчування. 
  3. “Ляльковод”, в якому зображення людини (рухи голови, рухи очима, міміка) анімує виконавець, що сидить перед камерою і виконує дії, які він хоче бачити на відео від “ляльки”


Повертаючись до визначення, автор статті вказує, що глибинні підробки включають не лише зображення, а й звук та відео, а отже мають аудіовізуальний формат. На цій особливості зосереджена увага і у законопроекті
Malicious Deep Fake Prohibition Act, поданому до Конгресу США. У проекті deep fake визначається як аудіовізуальний запис, створений або змінений таким чином, що спостерігач його може вважати автентичним. Законопроект (і це важливо) криміналізує використання глибинних підробок у порно та з метою шахрайства. проте містить виняток. Особа не може притягатись до відповідальності в таких випадках, якщо діє в рамках Першої поправки Конституції США (право на свободу вираження). До прикладу, коли такі підробки використовуються як жарт, розвага чи експеримент в медіа. 

На противагу, законодавство штату Нью-Йорк не вживає терміну “deep fake”, а застосовує визначення “digital replica” – цифрова копія. І розглядають його через призму захисту права на приватність. Зокрема, мова йде про заборону використання чужого обличчя без згоди з метою торгівлі. Іншим цікавим моментом є визначення не лише явища, а й цільових груп, на яких спрямоване законодавство. Це, передовсім, стосується аспектів кримінальної відповідальності. Для прикладу, у вже згаданому законопроекті Конгресу США увага зосереджена на двох групах: автори підробок, якщо вони діють з незаконним умислом, та поширювачі (платформи як Facebook). Проте лише у разі, якщо вони знають, що поширюють таку підробку. У той же час, тема deep fakes не обмежується питаннями кримінальної відповідальності, а має значний вплив на ширшу сферу.

Окремої уваги заслуговує питання виборів, адже глибинні підробки в першу чергу стосуються знаменитостей та політичних лідерів. На це вже відреагували законодавці штату Каліфорнія.. Зокрема, наразі активно розробляються поправки до цивільного процесуального та виборчого законодавства, які стосуються заборони використання “суттєво оманливих аудіо чи візуальних носіїв інформації”. Причому, під останнім визначаються:

“зображення або аудіо- чи відеозапис зовнішності, мови чи поведінки кандидата, які були навмисно змінені таким чином, щоб зображення чи аудіо- чи відеозапис неправдиво видавалися розумній особі автентичними і підштовхували особу до принципово іншого розуміння або враження поданого змісту зображення чи аудіо- чи відеозапису, ніж це було б, якби людина почула або побачила незмінну оригінальну версію цього зображення або аудіо- чи відеозапису”

Ба більше, у США вже тривала полеміка щодо неготовності соціальних платформ до “брудних способів ведення кампаній”. Доказом чого стало підробне відео американської депутатки Палати представників Конгресу США, яке поширив президент Дональд Трамп.

Це і стало одним із вирішальних чинників законодавчої роботи у цій сфері. Дійсно, питання дискредитації як осіб, чиї обличчя використовували в глибинних підробках, так і платформ, які можуть ненавмисно або навмисно поширювати подібну інформацію наштовхує на очевидну проблему: як розпізнати подібні речі, а головне – як побороти і чи взагалі потрібно. 

Розпізнати, побороти

Питання того, як розпізнавати та боротись з deep fakes охоплює, як мінімум, кілька сфер: медійну, правову та технологічну. Згадані аспекти різняться своєю гнучкістю, пошуком варіантів вирішення, а головне – способами впровадження та подальшої імплементації. Розглядаючи це через призму медіа, перш за все з’являються питання того, як медіа поширюють інформацію, а також як користувачі її споживають. Якщо в першій ситуації – це питання стандартів журналістики та її етичності, то в другому – це комплексна проблема культури споживання інформації. І аспект виявлення deep fakes є досить специфічним та ширшим за основні прийоми медіаграмотності. 

Нині пропонується 8 способів розпізнати deep fake:

  1. помічати мерехтіння обличчя (одна з очевидних речей, оскільки досі частина подібних відео виглядає неприродньо – це стосується переходів між обличчям, шиєю і волоссям, які не завжди органічно поєднуються між собою); 
  2. звертати увагу на лице та тіло (більшість таких підробок – це заміна обличчя, оскільки заміна тіла вимагає набагато більших зусиль, звідси – якщо колір шкіри лиця, риси не відповідають тілобудові – це також, імовірно, несправжнє відео); 
  3. зважати на тривалість відео (хоч і технології глибинних підробок легкі у використанні, вони все ж вимагають трудомісткого процесу розробки і навчання штучного інтелекту, саме тому більшість якісних підробок мають кількасекундну тривалість. Звідси, якщо ви бачите таку коротку нарізку, але немає очевидних причин її скорочувати – швидше за все це також свідчить про несправжність відео); 
  4. шукати джерело запису (часто пошук першоджерела поширення подібного контенту допомагає виявити можливу підробку);
  5. звертати увагу на звук запису (часто підроблені відео підміняють лише зображення, відповідно, погана синхронізація рухів губ промовця зі звуком може свідчити про несправжність);
  6. розпізнавати деталі на заповільненій швидкості відтворення (зменшивши швидкість на 50%, можна легше спостерігати за розбіжностями фону чи зміни в малюнку); 
  7. звертати увагу нечітку внтурішню частину рота (штучний інтелект все ще навчається правильно відображати ротову порожнину, що може відобразитись на поганій чіткості зображення зубів чи язика під час розмови). 
  8. помічати моргання (поки що більшість програмного забезпечення не може відтворити нормальне моргання людини: частота 2-8 секунд, тривалість одного кліпання – від 1/10 до 1/4 секунди). Так, програмне забезпечення, яке створює глибинні підробки, буде й надалі розвиватись, а значить буде все складніше відрізнити несправжню інформацію, водночас, аналогічно з’являтимуться більш витончені способи її розпізнати. 


Правова сфера не така динамічна, як людська поведінка, проте діюче законодавство уже містить окремі рекомендації. Так, поки що вони досить загальні, особливо в питаннях розробки штучного інтелекту, що очевидно, оскільки вони сконструйовані як реакція на існуючі проблеми, про що згадувалось у розділі вище, так і спрямовані на більш програмний, стратегічний підхід. Зокрема, у
висновках, опублікованих Радою Європи з Конференції щодо управління ігровою політикою – вплив розвитку штучного інтелекту на права людини, демократію та верховенство права – наголошується необхідність інформувати громадян щодо можливостей та потенційних ризиків штучного інтелекту, сприяючи належній довірі громадськості до інформаційного середовища та інструментів штучного інтелекту. Окрім цього, вказується на людиноцентричний підхід, приділяючи особливу увагу вразливим групам, які можуть зіткнутися з нерівністю та упередженістю. Більше того, у висновках йде мова про алгоритмічну прозорість, рівність перед законом, яка не може бути порушена алгоритмом, а також – про непорушність існуючих важливих міжнародних документів – Загальної декларації прав людини та Конвенції про захист прав людини і основоположних свобод, які будуть застосовуватись незалежно від контекстних змін, внесених появою штучного інтелекту. 

Водночас, технологічна сфера працює у два напрямки: як у створенні більш досконалих підробок, так і паралельно працюючи над способами їх виявлення. Одним зі способів є технології, засновані на комплексних інструментах: моніторингу, визначення (базуючись на відеомеханіці, досліджуючи зміни обличчя, візуальну цілісність відбитків пальців, аномалії метаданих тощо) та усунення несправжнього контенту. Поки що вважається, що точність визначення глибинних підробок – більше 90 відсотків. Попри це, важливо зазначити, що згаданий підхід не можна вважати цілковито правильним. Щоби пояснити згадану тезу, можна навести паралель зі створенням комп’ютерних вірусів та розробки антивірусів, коли останні дієві до моменту, поки не з’явиться нова шкідлива програма, на противагу якій знову з’явиться новий “антидот” і по колу. У згаданій технологічній дилемі боротьби з глибинними підробками розробляється дещо інший підхід.

Парадокси та не зовсім очевидне майбутнє

Парадоксально, але “методи виявлення відео-маніпуляцій та способи здійснення редагування відео спираються на дуже схожі принципи”. Для прикладу, частина алгоритму, що виявляє модифікації у відео, напрацьованого, зокрема, на базі Стенфордського університету, розроблений як частина програми, що генерує ті ж самі deep fakes – Deep Video Portraits. Їхній підхід спирається на спеціальній змагальній мережі (conditional generative adversarial network), що складається з двох основних елементів, підмереж, – генератора та дискримінатора. Обидва елементи спільно навчаються на основі протилежних цілей. Мета генератора – створити фейкове відео, яке неможливо відрізнити від реального. На противагу, мета дискримінатора – виявити синтетично створене відео. Окремим важливим моментом є підтримка рівноваги між двома елементами, оскільки дискримінатор повинен могти перемогти лише у половині випадків. Звідси, внаслідок конкуренції та взаємодії між обидвома мережами, і дискримінатор, і генератор в процесі навчання стають все більш досконалими. Зокрема, за схожим алгоритмом працює інструмент Grover, який націлений на генерацію та виявлення текстових дуже правдоподібних підробок. Згадану програму використав у своїй публікації Wall Street Journal, штучно створивши статтю, зміст якої не відповідає дійсності. Автори виділяють окремі моменти, які могли б допомогти виявити синтетичність походження цієї статті – серед них ознаки, що вказують на справжність статті, так і прийоми, притаманні для інструментів, що створюють подібні статті. Зокрема, мова йде про те, що алгоритми не завжди можуть відтворити стиль текстів, властивий тому чи іншому виданню, досить часто такі публікації не мають достатнього зв’язку з реальністю, а також побудовані за схожою схемою: з емоційним сильним початком, та досить рівномірним фіналом з описом дотичних тем. Неможливо не помітити, що більшість прикладів неправдивих історій, створених синтетично, активно використовували медіа, показуючи свою стурбованість щодо свого майбутнього, питання правдивості та журналістських стандартів. 
 

Післямова

Світові медіа розгортають активну дискусію щодо питання ризиків впливу глибинних підробок на якість інформації, намагаючись не лише відобразити тенденції, а й працювати над допомогою у виявленні та попередженні можливих загроз. І це логічно, оскільки технології в багатьох речах автоматизують роботу медіа, а також мають великі можливості нівелювати цінність останніх. Про перше свідчать використання алгоритмів для створення статей у таких виданнях як The Guardian та The Bloomberg. Про інше можна говорити більше в майбутній перспективі, коли питання стандартів поширення інформації матиме набагато більше значення, на противагу існуючому мінімуму рівня перевірки інформації, захисту джерел, а також – покращення якості текстів та глибини досліджень конкретної теми. Так, дійсно, можна говорити про те, що межі журналістики стали дуже розмитими, ця проблема виникла ще з початку активного розвитку соціальних платформ. Згаданий феномен дуже влучно відображала фраза про те, що друковані медіа відмирають, проте журналістика – ні. Нині, коли одним з нових її викликів постає питання використання технологій, наведена цитата все ще залишається актуальною. Попри активний розвиток технологій, медіа зіткнуться з новими проблемами, але журналістика все ще існуватиме і повинна буде існувати, переходячи на більш глибинний, якісний рівень, що краще допоможе виявити професіоналізм та унікальність одних, та підтвердити посередність інших.

Ми надаємо безоплатні консультації із юридичних питань у сфері інформаційного та медійного права. Будемо раді поділитися з вами своїм досвідом.

Листи з інших питань не розглядаються.

Докладніше про консультації

 

Для того, щоб отримати інформацію, яка вас цікавить, зверніться до нас за допомогою гарячої лінії: