Нові набори наліпок у передових соцмережах, 3D-аватари у месенджерах, “воскреслі зірки” кінематографу минулого сторіччя, персонажі відеоігор, до чортиків схожі на відображення у дзеркалі – це лише частина величезного списку цифрових аватарів, голограм і глибинних підробок (англ. “deepfakes”), які оточують нас у повсякденному житті. Здавалося б, не залишилося жодної сфери без впливу штучного інтелекту на наші права. Маєте сумніви? Ось приклади цифрових особистостей, створених за останні кілька років, та сфер їх використання:
- У Китаї замість наймати дорогого ведучого створили голограму, яка веде випуск новин, виглядаючи як реальний диктор. Технологія передбачає, що за основу можна взяти зображення будь-якої людини;
- Facebook, Snapchat та пристрої Apple впровадили функцію створення цифрового аватару (першими країнами були Австралія, Нова Зеландія, Сполучене Королівство та Ірландія, згодом – Європа і Канада). Наразі власники аватарів використовують їх як наліпки, зображення профілю чи емодзі. Facebook також оголосив, що незабаром створить цифрові аватари у форматі віртуальної реальності, які функціонуватимуть на основі відстеження руху очей та зміни виразу обличчя. Таку технологію можна буде використовувати за допомогою спеціальної гарнітури. Водночас, у Snapchat є можливість встановити власне тривимірне зображення на профайл, з більш ніж 1200 комбінаціями тіл, виразів обличчя, жестів та фонових заставок;
- Гурт АВВА помолодшав на 30 років, створивши ціле шоу за допомогою голограм та давши цифровий концерт, де глибинні підробки майже не відрізнялися від справжніх учасників гурту. Схожі технології застосовують і інші зірки, як-от Cardi B, Рассел Вестбрук, Джастін Бібер, J Balvin, Ріанна та Shawn Mendes. І цей список далеко не вичерпний!
- Продовжуючи музичну тему: у пісенному конкурсі Alter Ego можна взяти участь, лише якщо конвертувати свою ідентичність у цифровий аватар. Сам виступ відбувається на реальній сцені з живими танцівниками;
- Цифрові аватари вартують шалених коштів і становлять вигідний предмет торгівлі (зокрема, Visa Inc. купила цифровий аватар за $150 000, демонструючи підтримку дедалі більшого потоку інвестицій у сферу криптовалют і технології блокчейн);
Цифрові аватари використовують і для медичних цілей, щоб створити інтерактивний профайл пацієнта і протестувати наслідки застосування певних ліків чи процедур: спершу у віртуальному просторі, і лише потім – у реальному житті. Цифрові аватари вважають корисними для лікування психічних розладів (зокрема розладів особистості), аутизму, гіперактивності та деменції.
Це лише невелика частина прикладів використання цифрових аватарів у абсолютно різних сферах. Наприклад, можна конвертувати звичайні фотографії у 3D-зображення або аватари за допомогою Wolf3D та багатьох інших додатків. Донедавна найбільшою проблемою була неможливість відтворити глибинні підробки у режимі реального часу, а сама технологія потребувала десятків годин, якщо не днів роботи програмістів та дизайнерів. Втім, дослідники NVIDIA вже зробили значний прорив, давши змогу користуватися цифровими аватарами для відеоконференцій, сторітелінгу, віртуальних асистентів та у багатьох інших галузях. Ще одним прикладом є розробка українців, додаток Reface, який так само здатний створювати глибинні підробки у режимі реального часу.
Якщо вам здається, що технологія дуже нова – згадаймо про музичний гурт Gorillaz, чиї відео були переповнені анімованими персонажами ще в далеких 1990-х. У 2013 році з’явилися віртуальні співаки (як-от, Хацуне Міку), а ще трошки згодом популярність почали здобувати блогери з обличчями, які виявилися глибинними підробками.
Такі випадки породили широку дискусію: чи законні та етичні технології створення цифрових аватарів? Чи слід розробити правила їх використання із врахуванням усіх можливих ризиків? Саме тому варто оцінити вплив цього явища на права людини і розглянути можливі “червоні лінії” для таких технологій.
Перш ніж ростити квітку, підготуйте ґрунт
Дослідження CNBC вказують, що з 2018 по 2023 роки фінансові вкладення у розробку аватарів у віртуальній реальності мають зрости з $829 мільйонів до $4,26 мільярдів. Втім, створення цифрового аватара – процес комплексний, і він зачіпає не лише сферу бізнесу, а й досить великий спектр прав людини. Зокрема, впливає на право на зображення, право виражати свою ідентичність і займатися саморозвитком, захист персональних даних, а також ряд інших прав (як-от захист від дискримінації, вільні вибори – свободи, які зазнають впливу ситуативно). CNBC наголошує, що до 2030 року близько 23,5 мільйони робіт по всьому світу будуть використовувати технології віртуальної та доповненої реальності. Саме тому наразі надважливо визначити застосовні стандарти й оцінити ризики для згаданих прав людини.
Європейський суд з прав людини (далі – ЄСПЛ) неодноразово зазначав, що кожна людина має невід’ємне право розвивати свою особистість, зокрема шляхом встановлення та підтримання відносин з іншими особами та зовнішнім світом (Niemietz v Germany, §29 та El Masri v the former Yugoslav Republic of Macedonia, §§248-250). Воно передбачає і право особи формувати власну зовнішність відповідно до персонального вибору, а не вкорінених стандартів поведінки і є одним зі способів прояву особистої ідентичності. Наприклад, особа має право обирати зачіску до вподоби (Popa v Romania, §§32-33), вирішувати чи носити їй бороду (Tığ v Turkey), вдягати паранджу (S.A.S. v France, §§106-107) або взагалі з’являтися голим у публічних місцях (Gough v the United Kingdom, §§182-18). Будь-які заборони чи обмеження щодо зовнішності людини мають бути виправдані жорсткою суспільною необхідністю (Biržietis v Lithuania, §§54, 57-58). Інакше це порушує право людини виражати ідентичність у прийнятній для неї формі. Цілком логічною буде презумпція застосовності цих стандартів в онлайн-просторі – при створенні цифрових аватарів, голограм чи глибинних підробок.
Будь-які заборони чи обмеження щодо зовнішності людини мають бути виправдані жорсткою суспільною необхідністю. |
У цьому контексті важливе також право людини на зображення, адже воно розкриває унікальні характеристики особи. Не має значення, зображують фотографії інтимні деталі життя особи та її родини (Von Hannover v Germany (no 2), §103) чи вони є нейтральними і просто ілюструють зміст матеріалу (Rodina v Latvia, §131) – переважає (не)бажання особи отримати публічність. Ключовими факторами також є рівень схожості людини і створеної голограми, а також її відомість (яка впливає на те, наскільки можливо використовувати її зображення з художньою метою чи з метою критики). У іноземній практиці щодо цього вже є базове регулювання (переважно воно стосується комп’ютерних ігор, де є глибинні підробки):
- Сполучені Штати. Відповідно до Hart v Electronic Arts, Inc. та Keller v Electronic Arts, Inc. найважливішим аспектом є схожість особи із голографічним зображенням, адже саме це є ключовою підставою для обов’язку отримувати від неї згоду на створення голографічного зображення. Значення має і те, з якою метою використовується зображення відомих людей – комерційною чи художньою (див. John Doe v. TCI Cablevision), а також чи не створює реклама враження, що відома постать схвалює певний продукт, якщо її зображення використовують (Rogers v Grimaldi).
- Британія. Фільм з використанням голограми померлої знаменитості, який завдає шкоди гідності померлого, не буде достатньою підставою для судового позову. Аналогічний захист мають карикатури та сатира.
- Іспанія. У справі Zarzuela зображення померлої акторки Іспанської опери можна було легально використовувати для популяризації опери, адже метою є популяризація мистецтва. Тому скористатися зображенням померлої без її дозволу можна, лише якщо це становить публічний інтерес.
- Німеччина. Людська гідність померлого є цінністю, що переважає свободу вираження творця доробку (BVerfGE 30, 173). Обсяг творчої трансформації або художньої зміни персонажа порівняно з реальною фігурою є вирішальним. У справі Kahn v Electronic Arts. GmbH суд зазначив, що використання віддалено схожого зображення не має ставати монополізацією образу та ідентичності особи. Поширення голографічного зображення померлої людини вимагає дозволу родичів протягом 10 років після смерті.
- Франція. Згідно з Philippe Le Gallou v Fodé Sylla, матеріал, створений як пародія, не потребує згоди зображеної особи. Тобто він не порушує право на використання торговельної марки (якщо ім’я особи зареєстроване як таке), але може порушити право на зображення (якщо шкодить репутації особи). Також у Scarlett Johansson v Grégoire Delacourt суд наголосив: якщо голограма реалістична, а акторка впізнавана, згода на створення глибинної підробки є обов’язковою.
Власне, іноземні практики демонструють, що використання зображення без згоди за загальним правилом становить порушення права на приватність. Як ці класичні правила застосовні до цифрових аватарів, голограм та глибинних підробок?
По-перше, їх створення і використання розробниками для будь-яких цілей вимагає обов’язкової згоди зображеної особи. Так, неправомірно використовувати будь-чиї біометричні дані (риси обличчя, статуру чи анатомічні особливості) для голограми з рекламною метою, якщо особа не надала прямої поінформованої згоди. І це правило діє попри те, що голограма – не зображення у класичному розумінні (вона може рухатися, бути лише віддаленою копією особи тощо).
Створення і використання розробниками цифрових аватарів для будь-яких цілей вимагає обов’язкової згоди зображеної особи. |
По-друге, наразі цифрові аватари та голограми є настільки ж поширеним способом проявити власну ідентичність, як і фотографія. Часто сторінки у соціальних мережах взагалі не мають реальних зображень чи відео – лише штучно створені за допомогою спеціальних технологій (цифрові аватари чи глибинні підробки). Вони можуть бути як у формі голограми, так і подібні до мультиплікаційних персонажів – як це дозволяють робити платформи Genies та Itsme. Деякі програми показують, що виготовлене зображення є підробкою, а розробники інших намагаються зробити їх якомога подібнішими до оригіналу.
На думку користувачів, перевагою цифрових аватарів і голограм є можливість адаптувати зображення до власних потреб, відзеркаливши стиль, культуру та вподобання. І хоча люди частіше створюють аватари, наближені до їхньої справжньої зовнішності, сама технологія дозволяє конструювати й образи, абсолютно віддалені від реальності.
Адже одні користувачі прагнуть самовизначитися, тоді як іншим потрібна можливість залишатися анонімним онлайн (наприклад, щоб надавати підтримку, можливість вести політичний дискурс тощо). Втім, в обох випадках набір опцій для створення цифрового аватара має бути достатньо широким, щоб уникнути дискримінації за будь-якою ознакою (стать, раса, релігія, наявність інвалідності тощо). Також компаніям слід вживати заходів щодо запобігання цькування на підставі окреслених категорій або використання голограм чи цифрових аватарів не за призначенням (для цькування й дискримінації). Наприклад, неправильно створювати жіночі аватари, які є об’єктивацією тіла чи зовнішності, давати меншу кількість опцій для коригування зовнішності людей кольору (англ. “people of colour”), не розробляти позначок для людей з інвалідністю тощо. Це призводить до посилення інституційної дискримінації.
Набір опцій для створення цифрового аватара має бути достатньо широким, щоб уникнути дискримінації за будь-якою ознакою. |
Деякі компанії вже розробляють голограми, які не лише можуть рухатися у форматі GIF, а слугують співрозмовником, здатним повноцінно представляти особу – по суті, стають її реплікою. Ці технології використовують, аби подолати страх суспільства перед глибинними підробками, зовнішньо наближеними до людей (феномен “uncanny valley”, коли людиноподібні аватари сприймаються як моторошні чи огидні). Їх можна використовувати, щоб передавати повідомлення іншим особам, для реклами тощо. Водночас, якщо людина не знає, що цифровий аватар – штучний, а він виглядає максимально наближено до прототипу — сприйняття буде просто чудовим. І це може породжувати певні проблеми.
Зокрема, надзвичайно небезпечними є використання глибинних підробок без відома особи. Причому це стосується не лише живих людей, а й померлих знаменитостей, відомих суспільних діячів та політиків. З негативних наслідків варто згадати феномен порнопомсти, пропаганду фейків за допомогою цифрових аватарів блогерів чи журналістів. Тільки уявіть, що станеться у випадку витоку даних з компаній, які представляють тисячі впливових осіб!
Саме тому, окрім оцінки застосовних стандартів слід детальніше проаналізувати, які ризики новітні технології становлять для прав людини, та як запобігти шкоді, не перекриваючи повітря для розвитку галузі в цілому.
Троянда красива, але не вколіться ненароком!
Якщо раніше небезпечною була крадіжка персональних даних, то сьогодні це може перетворитися на крадіжку особистості. Часто трапляється так, що взявши фото особи з Інтернету популярні компанії створюють числені рекламні постери і банери на його основі – в результаті обличчя або тіло людини використовують для монетизації продукту без її згоди. І це не просто крадіжка конкретного фото з соцмережі – це крадіжка особистості, адже складається враження, ніби особа брала участь в активності, з якою її насправді нічого не пов’язує.
Якщо раніше небезпечною була крадіжка персональних даних, то сьогодні це може перетворитися на крадіжку особистості. |
Особливо актуальною загроза стає через значний технологічний прогрес, коли для якісної підробки не треба значних зусиль – наприклад, Walt Disney для серіалу “Мандалорець” використала технологію комп’ютерного генерування акторів (Люк Скайвокер все ж не молодшає з роками). Чи можна з першого погляду відрізнити підробку від оригіналу? Навряд. Однак, ніхто не зможе запевнити, що технологія, використана з розважальною метою, одного дня не обернеться проти нас.
Інший приклад – створення образу Залізної Людини в однойменному фільмі – деякі розробники вважають його одним із найвдаліших застосувань штучного інтелекту для створення глибинної підробки.
Чи багато часу займає процес розробки справді якісного цифрового аватару? Надзвичайно багато. Для довідки: проєктування персонажа Ґолума у фільмі “Володар перснів” змусило знімальну команду створити для актора костюм з 64 контрольними точками та маску для обличчя з 964 контрольними точками. Інакше якісного зображення не виходило – кожен мімічний жест спричиняє прилив крові до обличчя, і прискіпливий глядач помітить відсутність природних реакцій на рух. Тому для вдалого кадру доводилося перезнімати від 50 до 100 епізодів і згодом накладати їх одне на одного. Робота з цифровим волоссям є ще складнішою, адже кожна деталь має відповідати рухам тіла, вітру, гравітації тощо. Сьогодні, хоч технології і сягнули небувалого розвитку, якісна глибинна підробка все одно потребує часу, ресурсів та неабиякої кваліфікації.
Проте не всі цифрові аватари претендують на Пальмову гілку чи Оскар. Досить якісні глибинні підробки здатні виготовляти не тільки компанії, на кшталт Walt Disney чи New Line Cinema, а і пересічні особи. Наприклад, український додаток Reface надає можливість у режимі реального часу перемістити своє обличчя на тіло знаменитості чи політика. У майбутньому автори планують додати Reface Studio – повноцінний редактор відео на основі технології швидкої обробки синтезованих відео, та Full Body Swap – заміна не лише обличчя, а й усього тіла користувача. Подібні додатки існують і за кордоном: Lend Me Your Face, DeepFaceLab, Faceswap, Deep Art Effects, Morphin та багато інших, які можна чергувати залежно від бажаного результату (дослідження, меми, відеопродакшн тощо).
Технології настільки якісні, що пересічний глядач вірить у зміст, гортаючи стрічку у звичному темпі й не вдаючись у деталі. Легкість створення глибинних підробок має свої мінуси. Так, руйнівним для репутації особи, її гідності, а також морального стану є створення цифрових аватарів для порнопомсти. Це надзвичайно неприємний і дуже небезпечний феномен, адже важко довести наявність монтажу чи швидко прибрати матеріал з мережі. Водночас, в аудиторії залишається негативне враження про особу через якісну підробку. Втім, технології використовують не лише для порнопомсти, а і в комерційних цілях – виявляється, попит на порно із зірками величезний! Наприклад, у Тайвані нещодавно заарештували YouTube-блогера, який продавав порнографічні відео з місцевими знаменитостями – вони були глибинними підробками.
Технології настільки якісні, що пересічний глядач вірить у зміст, гортаючи стрічку у звичному темпі й не вдаючись у деталі. |
Не оминули глибинні підробки і сферу телебачення – минулоріч спортивний канал ESPN створив рекламу, в якій нібито ведучий 1998 року розповідає, що очікує на баскетбол у 2020 році. Фанати Генрі Кавілла створили глибинну підробку із ним у ролі Агента 007, яку активно поширювали популярні медіа. Прихильники Тома Круза створили його несправжній акаунт у TikTok, а новий додаток дозволяє отримувати персоналізовані повідомлення від футбольних зірок. H&M використовує цифровий аватар Мейсі Вільямс для реклами кампанії з переробки одягу. І всі ці приклади виглядають неймовірно близькими до оригіналу. Здавалося б скоро замість зйомки в рекламі від особи потрібно буде лише згода на використання її зображення, а не фізична присутність на майданчику.
І якщо несправжні баскетбольні прогнози чи мрії про майбутнього Бонда – явище відносно безпечне, то що робити, коли справа стосується виборів? У 2019 році експрезидент США Дональд Трамп перепоширив фейкове відео з Ненсі Пелосі: чинна спікерка Палати представників Конгресу, яка на значно уповільненій швидкості відео виглядала, ніби у стані алкогольного сп’яніння. Іншим прикладом є відоме відео з Бараком Обамою, де він описує Трампа непристойними словами – у мережі було багато його фото та відео, тож створити глибинну підробку виявилося досить легко. Саме тому відомі люди перебувають у більш вразливому становищі.
Сотні подібних епізодів змусили соцмережі зрозуміти, що глибинні підробки є суттєвою загрозою виборчому процесу. Наприклад, вони дозволяють зробити так, щоб ув’язнений дисидент виглядав розслабленим на кадрах із зали суду, тоді як насправді йому влаштовують голодування. Тож використання технологій у виборчі періоди часто призводить до нових контентних обмежень у мережі. Дехто ж діє не обмеженням, а заборонами — Reddit та країни на кшталт Китаю встановили бан на глибинні підробки. Щоб визначити межі повноважень компаній та уникнути надмірних обмежень, з’явилися спроби врегулювати такі технології на законодавчому рівні — встановленням обов’язкових дисклеймерів щодо маніпулятивних медіа, забороною віртуальних аватарів у виборчий період та розробкою санкційного механізму за порнопомсту.
Добре, якщо власники сторінки у соцмережі чи на певному ресурсі попереджають, що зображення є нереальним цифровим аватаром. До прикладу, так роблять автори популярної Aliza Rexx – вигаданого персонажа з десятками тисяч підписників. Погано, якщо про таке попередження забувають – випадково або не дуже. І у такому випадку потенційним зловживанням може стати створення нової особистості, яку цілком ймовірно наділять повноцінними правами і обов’язками. Наприклад, переможницею літературної премії “Планета” стала письменниця Кармен Мола, за іменем якої “ховалися” троє відомих сценаристів. І якщо ця ситуація здається радше смішною, ніж небезпечною, давайте згадаємо про створення особистостей для поширення передвиборної агітації. Водночас, варто розуміти, що технологія глибинних підробок лише виведе подібні зловживання на новий рівень, адже люди більш схильні вірити у якісне зображення чи відео, ніж текстові повідомлення.
Подібні ситуації є досить популярними у Instagram (включно із сервісом Reels) та TikTok – соцмережах, переповнених блогерами, які часто монетизують контент. Зокрема, дизайнери і програмісти, попередньо вивчивши новітні тренди, створюють реалістичні відео, зображення та аудіо у стилістиці популярних блогерів. Згодом вони запускають кампанії зі збору коштів або ж просто користуються усталеними алгоритмами соцмережі (реклама накладається на відео і власник отримує кошти), а підписники перебувають в омані. Однак, ситуація може бути ще небезпечнішою – наприклад, коли зловмисники створюють несправжню особистість на Facebook чи Tinder для насилля, зґвалтувань чи викрадень. Можливість генерувати фейкові відео з повноцінною жестикуляцією та використання “віртуальних масок” під час дзвінків робить перевірку особи співрозмовника все складнішою. Розробники технологій наголошують, що аватари далеко не завжди передають особу такою, як вона є у реальному світі. Тому потрібно надзвичайно обережно ставитися до запитів у друзі в соцмережах і не додавати абсолютно сторонніх людей: найкраще, що може трапитися – розчарування, гірше – стати жертвою шахрайства чи навіть тяжчих злочинів.
Потрібно надзвичайно обережно ставитися до запитів у друзі в соцмережах і не додавати абсолютно сторонніх людей. |
Часто особи створюють аватари абсолютно несхожими на реальний прототип. Проте численні дослідження підтверджують, що навіть це не є перешкодою для отримання персональних даних. Реальні вподобання суттєво впливають на вибір зовнішності цифрового аватара, зачіски та стилю одягу, фонового малюнку, релігійних символів тощо. Так, наприклад, ті, хто обирав для аватару великі очі, вважався більш екстравертивним та відкритим до спілкування, а його акаунт – більш привабливим для аудиторії. З одного боку, це, так само як і глибинні підробки, можуть використовувати зловмисники на сайтах знайомств та блогери для збільшення доходу. З іншого боку – це дає змогу зрозуміти багато інформації про людину. Навряд когось цікавить справжня дата народження особи, втім, улюблений колір худі або сукні напевне буде корисно знати тим, хто налаштовує рекламний таргетинг. І такий, здавалося б, непрямий зв’язок між цифровим мультиплікаційним аватаром і особою насправді надає про неї дуже багато корисних даних.
Гіршою є ситуація у випадку завантаження власного фото чи відео у додатки, які створюють глибинні підробки. Багато розробників використовують інформацію від волонтерів для тестування і запуску алгоритму, а це означає, що такі дані вічно залишатимуться у системі. Наприклад, AI Foundation зазначає, що таким чином люди “не будуть забутими” після смерті. Тобто повернути дані буде неможливо ані для самої людини, ані для її родичів. Так само Hour One для створення реалістичних цифрових аватарів використовує різні вирази обличчя особи із записаного через додаток короткого відео. Якщо ж надати дозвіл компанії на подальше використання даних для цілей реклами – можна навіть заробити чималий капітал. Погодьтесь, ще ніколи вираз “торгувати обличчям” не сприймався так буквально! Водночас, у компаній може бути неякісна система безпеки, внаслідок чого є ризик витоку персональних даних або навіть гірше – використання глибинних підробок, створених з розважальною метою, для поширення дезінформації.
Деякі компанії ставляться до можливості створення глибинних підробок досить відповідально – український Reface запровадив маркування для своїх продуктів (цифровий водяний знак). Так, технічно завжди можливо перевірити: справжнє відео чи штучний інтелект доклав певних зусиль для його створення. Розробники також радять використовувати й інші валідатори відео, особливо коли користувачі мають сумніви у його природі. Наприклад, можна користуватися додатком для виявлення глибинних підробок від Microsoft. Про необхідність регулювання та глибинного дослідження технологій штучного інтелекту у цій сфері говорить і президентка Європейської комісії Урсула фон дер Ляєн. Вона наголошує, що слід уважно вивчити ризики, пов’язані із застосуванням цифрових технологій та знайти правильне регуляторне рішення для існуючих проблем.
Також вирішення окреслених проблем більшість дослідників, законотворців та правозахисників вбачає, перш за все, в адаптації чинних стандартів у сфері захисту прав людини до сучасних цифрових реалій. Зокрема, особливої уваги заслуговує Загальний регламент про захист даних (більш відомий як GDPR), який встановлює досить деталізовані правила поведінки з персональними даними онлайн. Втім, його не завжди можливо застосовувати до соцмереж і вебсайтів за межами ЄС через юрисдикційні обмеження. Тож які стандарти слід першочергово перейняти, аби убезпечити користувачів і запобігти зловживанням? Гайда з’ясовувати.
Квітка без стебла – звичайний набір пелюсток
Загалом вимоги до розробки і застосування таких технологій є досить стандартними: наявність обов’язкової згоди, повідомлення про взаємодію зі штучним інтелектом, а також можливість відмовитися від неї. З одного боку, ці вимоги видаються досить легкими для імплементації, проте на практиці можна зустріти багато підводних каменів.
(Не)обов’язкова згода. Правило згоди стосується її добровільності, однозначності та попереднього інформування про всі процеси, які відбуватимуться з персональними даними особи. Прогалини у регулюванні тут можуть виникнути не щодо живих осіб, які самі можуть розпоряджатися фотографіями, своїм іменем і технічним матеріалом для створення глибинних підробок. Наприклад, у вже згаданому конкурсі Alter Ego усі виконавці надають згоду на використання їхніх персональних даних. Так само відбувається і при використанні образів зірок для реклами. Дещо розмитим є регулювання ситуацій, коли особа використовує власноруч створений цифровий аватар зірки для ілюстрації свого профілю й без комерційної мети. Тут ключовими факторами будуть схожість та наявність шкоди для репутації зображеної особи – тобто критерії для оцінки більш-менш зрозумілі. Проблема виникає, коли йдеться про використання даних померлої особи — для популяризації культурних заходів, реклами, для історичних довідок тощо.
Правило згоди стосується її добровільності, однозначності та попереднього інформування про всі процеси, які відбуватимуться з персональними даними особи. |
Для декого можливість побачити померлих родичів і почути їхній голос є однією з найнездійсненніших мрій. Вже можливо відтворювати тембр, інтонації та гучність голосу за допомогою спеціальних модуляцій. Реальним є і створення повноцінної голограми особи на основі фотографій та введених даних – Кім Кардаш’ян на день народження отримала відео з побажанням від померлого батька. У цій ситуації, жодних заперечень з боку родини померлого не було, адже метою створення глибинної підробки було хоч на мить поєднати батька з дитиною. Як зазначалося вище, мета використання відіграє не останню роль. Проте чи може висока мета переважити, до прикладу, заперечення родичів проти використання імені та зображення особи? Чий дозвіл слід отримати, коли жодного родича немає?
Дослідження Thomson Reuters Foundation вказують, що більшість країн наразі не мають регулювання щодо захисту персональних даних померлих осіб, а отже будь-чиє зображення після смерті може стати основою для голограми. І хоча потроху починає з’являтися спеціальне регулювання, його якість далека від досконалості. Наприклад, нью-йоркський закон охоплює поняття “цифрових реплік”, “померлих виконавців” і “померлих персоналій”. У випадку відомих осіб важливим є художній внесок автора глибинної підробки та її наближеність до оригіналу. Якщо The Beatles, які грають важкий рок, навряд здаватимуться комусь реалістичними, то The Sex Pistols, які виконують новий джаз разом із Тоні Вільямсом, виглядатимуть досить органічно. І питання тут поставатиме у тому, чи застосовною буде дозвільна норма закону, чи слід буде щоразу протягом 40 років після смерті особи прохати у нащадків дозволу на використання її образу, і чи не буде кожне відео вважатися крадіжкою образу. Як висновок, навряд цей акт можна назвати ідеальним регулюванням глибинних підробок. Хоча гріх не поставити вподобайку за спробу!
Після впровадження карантину популярною стала діджиталізація культурної сфери – цифрові виступи у театрі, онлайн-концерти відомих співаків, цифрові прогулянки музеями. Однак, досить швидко розробники зрозуміли, що використання цифрових технологій покращить не лише цифрову модель музеїв, а й фізичний простір. Це включає як “розумні музеї” з автоматизованим озвучуванням експонатів, так і створення цифрових аватарів. Наприклад, у Флориді американський музей створив голограму Сальвадора Далі, що за своєю природою є глибинною підробкою. Технологія працює на основі штучного інтелекту, спілкується з відвідувачами і розповідає історію життя художника. У такому випадку вже не вийде сказати про повну відсутність комерційної мети.
Більше того, такий підхід може сприяти комерціалізації даних померлих осіб. Якщо відомих особистостей прив’язуватимуть до сфер їхньої діяльності, то пересічні користувачі ризикують значно більше. Розробники додатків використовуватимуть їхні персональні дані для реклами. Саме тому слід розробити законодавство, яке уможливить адекватне розпорядження інформацією про померлу особу її родичами. Це включає перелік суб’єктів розпорядження, розумні строки, мету та обсяг використовуваної інформації, суспільний інтерес тощо.
На зв’язку штучний інтелект, доброго дня! Часом ми можемо говорити із цифровим аватаром чи глибинною підробкою навіть не підозрюючи про це. І питання стає все актуальнішим з огляду на ідею використання таких технологій для аватарів під час ділових перемовин онлайн. Навіть сьогодні не завжди можливо відрізнити штучно згенероване зображення від реальної людини – голограма рухатиметься вільно і плавно, а людина може нечітко говорити чи робити різкі рухи. Більше того, програми для відеокомунікації вже дозволяють використовувати фільтри, які суттєво змінюють обличчя. Якщо при прийомі на роботу особа говорить з працедавцем сама, але використовує такі фільтри, щоб приховати зовнішність — чи можна вважати таку співбесіду чесною? Чи має особа попереджати про використання технології?
Компанія Soul Machines – лідер у сфері створення штучного інтелекту з “емоційною” складовою – розробила віртуального асистента Nadia, яку озвучила Кейт Бланшетт, та Sophie – пілотний проєкт для взаємодії з клієнтами у Новій Зеландії. Прогнозують, що обидва цифрові аватари матимуть широкий спектр функцій. Samsung вже тривалий час працює над проєктом Neon – комп’ютерно анімована людиноподібна програма, яка здатна діяти подібно до Siri чи Google Assistant. Іронічно, що перші тизери цієї програми, які були злиті у мережу, виявилися підробками, так само згенерованими додатками для створення цифрових аватарів. Проте розробники направду обіцяють, що майбутня програма буде демонструвати “емоції та інтелект” при розмові з користувачами. А ще обіцяють, що програма зможе виконувати ролі акторів, фінансистів, ведучих, надавача медичних послуг чи поліції. Схожа схема вже застосовується для перетину кордону у Люксембурзі, Греції, Британії, Польщі, Іспанії, Угорщині, Німеччині, Латвії та на Кіпрі. Зокрема, додаток iBorder Ctrl вимагає від особи пройти інтерв’ю з цифровим аватаром на основі штучного інтелекту, який запрограмований на виявлення неправдивої інформації (аналіз рухів та виразу обличчя). Опісля використовуються додаткові методи верифікації особи, як-от відбитки пальців та розпізнавання обличчя.
В цьому контексті, у спільноті правозахисників виник неабиякий дискурс – чи може програма оцінювати легальність наших дій? Аналогічно зазначали, що цифровий аватар не може відчути розпач під час звільнення людини. Саме тому його не можна наділяти повноваженнями звільняти людей, повідомляти діагноз у лікарні чи виносити вирок у суді. Втім загальне питання – чи не забагато алгоритмів у нашому житті? В який момент ми почнемо плутати згенеровані та реальні речі? Колись це точно станеться. І обов’язком компаній якраз є запобігання подібним випадкам.
Зокрема, Європейська комісія опублікувала пропозиції щодо регулювання штучного інтелекту, категоризувавши ризиковість технологій залежно від сфер використання. Неприйнятний рівень ризику приписали технологіям, здатним маніпулювати поведінкою людей (чи можуть усі глибинні підробки належати до цієї категорії – питання дискусійне). Водночас, звичайний рівень ризику мають технології на кшталт чат-ботів. Однак, незалежно від рівня ризику, людину мають попереджати про те, що вона взаємодіє зі штучним інтелектом, а не реальним співрозмовником. На додачу, Рада Європи підкреслює, що при дизайні автоматизованих систем неприпустимо використовувати дискримінаційні практики. У випадку, якщо вплив діяльності аватарів чи голограм на права людини є значним – особа має право вимагати відмовитися від виконання послуги штучним інтелектом і вимагати, щоб її надала реальна людина. Так само особа має право вимагати перегляду такого рішення – про це говорить Загальний регламент про захист даних. І ця теза виглядає надзвичайно актуальною з огляду на використання цифрових аватарів для інтерв’ювання людей на кордоні держави!
Пелюстки етики у букетах порушених прав
Питання етичних стандартів завжди належало до філософського дискурсу без правильної відповіді. Чи етично “оживляти” людей навіть зі згоди їхніх родичів? Незалежно від відповіді, такі практики вже існують – функція Deep Nostalgia від MyHeritage дозволяє анімувати старі сімейні фотографії й давно померлі родичі можуть посміхнутися вам. Чи не призведе таке анімування до серйозних психічних проблем у осіб, які щойно втратили близьку людину? Ба більше, вже лунали пропозиції створення повноцінних голограм померлих осіб – така собі цифрова копія ідентичності людини. Вона може розмовляти і реагувати на події, обговорювати новини і взаємодіяти завдяки технологіям машинного навчання. Звісно, добре, якби кінострічки з Ентоні Гопкінсом могли знімати вічно, та чи готові ми до “вічного” життя не фільмів, а реальних людей?
Чи не призведе анімування зображень померлих до серйозних психічних проблем у осіб, які щойно втратили близьку людину? |
Дослідники вважають, що люди схильні довіряти реалістичним відео. Помноживши це на бажання вірити у реальність цифрових аватарів, ми отримаємо реальну можливість нервового зриву в особи, яка постійно “оживлятиме” померлих близьких. Розробники неодноразово наголошували, що можливість зробити голограму або репліку буквально будь-якої людини загрожує відкриттям “скриньки Пандори, повної етичних проблем”. Південнокорейська телекомпанія показала надзвичайно емоційну зустріч матері та померлої 7-річної дочки, відтвореної у вигляді цифрового аватара з фотографій та спогадів близьких. Росіянка натренувала нейронну мережу чат-бота з цифровим аватаром, зробивши його схожим на загиблого в автокатастрофі чоловіка. Журналіст тривалий час брав у смертельно хворого батька інтерв’ю аби після його смерті зробити цифрового клона. Чи ладна людина відмовитися від спокуси продовжувати взаємодіяти з аватаром, віддаляючись від реального світу і лише поглиблюючи травму особи? Чи маємо ми право покладати на будь-кого такий тягар? І загалом, згадуючи експерименти з використання цифрових аватарів для лікування психічних розладів – чи етично вводити людину в оману навіть для лікування?
Іншим питанням є створення цифрових аватарів дітей – хто може контролювати використання технологій неповнолітніми і малолітніми? Чи не вплине використання голограм на можливість адекватно виражати свою особистість? Наразі більшість додатків для створення глибинних підробок не мають вікових обмежень. Проте вже є випадки, коли діти асоціюють своє “я” із зображенням на екрані. Наскільки добре підтримувати таку оманливу думку? Ми це навряд дізнаємося, доки не побачимо останні психологічні дослідження щодо розвитку особистостей осіб, які виросли разом з такими додатками. Втім, ризик є, і його неможливо заперечувати.
Глобальною етичною проблемою залишається можливість використовувати дані померлих осіб з відкритого доступу – їхніх сторінок у соцмережах, новин у медіа тощо. Вже існували нариси проєктів, у яких планували збирати залишки персональних даних померлих осіб для накопичення їхніх знань і досвіду. Дехто навіть марить про воскресіння Стівена Гокінга та інших геніїв сучасності. Наскільки це етично? Наразі жодне законодавство не регулює цього питання, а компанії на кшталт Google та Facebook лише дозволяють призначити особу, котра буде розпоряджатися акаунтом після смерті власника. Все інше мало б бути врегульоване законодавством, якого не існує… Саме тому за відсутності заборон єдине, що наразі стримує людей від повсюдного використання чужих персональних даних – це етичні стандарти. І вони мають чітко окреслювати межі дозволеного у цьому питанні.
За відсутності заборон єдине, що наразі стримує людей від повсюдного використання чужих персональних даних, це етичні стандарти. |
Дослідники Оксфордського університету нещодавно запропонували етичні керівні принципи для використання цифрових аватарів та голограм померлих осіб. Застосовні вони не лише до соцмереж, а і для інших місць, де людина могла залишити цифровий слід. Не відстають від академіків і самі розробники. Наприклад, вже згадана компанія Soul Machines розробила власні етичні керівництва. Основними принципами є дотримання стандартів прав людини, орієнтованість на забезпечення добробуту людей, принцип захисту персональних даних, ефективність, прозорість, відповідальність, повідомлення про зловживання та компетентність розробників. І ці етичні керівництва насправді досить сильно перегукуються з пропонованими “червоними лініями”, що мали врегулювати використання штучного інтелекту й убезпечити від зловживань.
Екзистенційне питання: троянда чи бур’ян?
Технології розвиваються надзвичайно швидко і навряд за ними встигатиме будь-яке законодавче регулювання чи етичні кодекси. З одного боку, тенденції надихають, адже велику кількість проблем незабаром можна буде перекласти на цифрові плечі голограм та аватарів – прогнозують, що вони замінять більшість класичних професій і стануть хорошим радником для кожного.
З іншого боку, площина для ризиків є занадто багатовимірною: глибинні підробки використовують для порнопомсти, крадіжки даних чи навіть особистості. Несправжні відео поширюють у сенситивні періоди: перед виборами, під час заворушень чи соціальних криз. Як наслідок, безліч прав порушується, а межі правди та брехні розмиваються. Зрештою, розвиток таких технологій породжує складніші дилеми – чи варто “повертати до життя” померлих осіб, чи не вплинуть такі технології негативно на розвиток дитини, чим керуватися при розробці додатків – жагою до прогресу чи фундаментальною етикою? Дехто навіть пропонує створити Декларацію прав аватарів, тож чи слід вважати питанням часу момент, коли штучний інтелект буде рівним людині за статусом?
Сьогодні більшість питань не мають однозначної відповіді – ані серед розробників, ані серед науковців. І рішення точно не знайдеться у регулівних актах чи заявах правозахисників. Принаймні найближчим часом. Проте це не означає, що варто замовчувати проблеми чи припиняти пошуки. Наразі ми ще можемо відрізняти реальне від синтезованого, але з кожним днем технології удосконалюються. І краще прокреслити чіткі “червоні лінії” до того, як межа зітреться повністю. А поки що можна насолодитися прекрасною розмовою зі світовими геніями!
Ця аналітика була розроблена ЦЕДЕМ в рамках Technical Assistance Support в Україні, що здійснюється European Center for Not-for-Profit Law Stichting (ECNL). Проект став можливим завдяки підтримці International Center for Not-for-Profit Law (ICNL) через Civic Space Initiative.
Ця публікація повністю фінансується урядом Швеції. Уряд Швеції не обов’язково поділяє викладені тут думки. Автор несе виключну відповідальність за зміст.