Чи легально встановлювати на міських вулицях камери із системою розпізнавання облич?

June 30, 2021

У рамках програми “Безпечне місто” столицю обладнали понад 4 тисячами відеокамер. Наразі 52 станції метро мають 195 камер відеоспостереження, які поміж іншого оснащені функцією розпізнавання облич. Епіцентром нових технологій є перехідні, кінцеві та найбільш завантажені станції. Крім того, деякі камери аналізують температуру людей, які планують зайти у київський метрополітен. Дані з камер надходять до поліції, муніципальної варти, державної служби з надзвичайних ситуацій, а також є джерелом статистичної інформації для департаменту охорони здоров’я КМДА.

Ключові перехрестя, вокзали, центральні вулиці і площі Львова обладнані камерами відеоспостереження в рамках проєкту “Реформи без ілюзій”. Також планується встановити такі камери і на автовокзалах міста. Технології здатні розпізнавати обличчя та автомобільні номери, передаючи інформацію органам правопорядку. 450 відео поліція та Служба безпеки України використали для розшуку осіб , з них лише 18 дали позитивний результат. Камери працюють як єдина мережа, а доступ до записів мають ЛКП «Центр безпеки міста», Національна поліція і ситуаційна кімната Патрульної поліції. «АТП-1», ЛКП «Львівавтодор», управління транспорту Львівської міськради звертаються за даними з камер у разі потреби.

У Запоріжжі програма “Безпечне місто” також стала майданчиком для встановлення камер з функцією розпізнавання облич та автомобільних знаків. Більше того, міська рада у липні 2019 року навіть прийняла Регламент використання та функціонування системи відеоспостереження міста Запоріжжя. Документ, зокрема, передбачає можливість фіксації потрапляння людей у заборонену зону, переповненості (це порушення карантинних вимог), підрахунку кількості людей та дотримання певних правил дорожнього руху. У Регламенті зазначено, що при його розробці взяли до уваги Закони України “Про інформацію” та “Про захист персональних даних”. Щоправда, згодом виявилося, що відеокамери мають значно гіршу якість, ніж необхідно для повноцінної реалізації покладених на них завдань. Втім, навіть недосконалі дані поліція використовує, аби виявляти вчинені злочини.

Ужгород перейняв естафету, закупивши відеокамери з функцією розпізнавання облич та відеосервер для обслуговування таких пристроїв. Технологія здатна розпізнавати до 30 людей водночас, має бібліотеку з 30 тисяч облич та функцію тривоги за вказаними характеристиками (осіб, транспортних засобів чи номерних знаків). Доступ до даних мають органи правопорядку, а метою визначено запобігання вчиненню злочинів.

На Вінничині запроваджують систему відеоаналітики “Vezha”, яка розпізнаватиме та оцінюватиме об’єкти за допомогою штучного інтелекту. Відеопотік об’єднує близько 800 камер, які використовуються поліцією для моніторингу та швидкого виявлення місцезнаходження ймовірних порушників (обличчя, автівки, номерні знаки). Нагляд за системою здійснюють двоє працівників, один з яких опікується поточними справами, інший – моніторингом та аналізом інформації з масових заходів.

Наразі органи правопорядку мають доступ до близько 19 тисяч відеокамер у 25 регіонах, серед яких понад 2 тисячі обладнані аналітичними системами, що ґрунтуються на штучному інтелекті. Такі технології, крім згаданих міст, застосовують у Дніпрі, Одесі, Чернівцях, Чернігові та багатьох інших населених пунктах. Представники поліції зазначають, що майже 30% злочинів розкриті завдяки таким відеокамерам. Згідно з результатами соцопитування “Штучний інтелект: український вимір” 2018 року, 38,2% українців вважають, що систему “Smart city” насамперед варто впроваджувати за напрямом безпеки і відеоспостереження. 

Втім, ключовим питанням залишається легальність таких систем: наявність правової бази для їх функціонування в українському законодавстві, умови та необхідність втручання у конкретних обставинах, передбачуваність втручання для пересічних громадян, а також належні запобіжники від зловживань. 

Посміхніться, вас знімають!

“Smart”-камери, встановлені у численних українських містах в рамках програм “Smart cities” не лише записують відео, а й можуть розпізнавати обличчя, номери автомобілів, аналізують трафік на дорогах та вираховують наповненість транспорту відповідно до карантинних обмежень. Типів систем відеоспостереження є майже незліченна кількість, тому механізми їхньої роботи і обробки інформації можуть суттєво різнитися. 

Зокрема, столичні камери містять дані щодо осіб порушників, а також за потреби наповнюються інформацією щодо зниклих осіб (зокрема, і дітей). Коли необхідні дані – наприклад, фоторобот підозрюваного – завантажені до системи, програма розпочинає аналіз відео з камер спостереження, розташованих у місцях масового скупчення людей. Згідно з дослідженнями ТСН, системи можуть ідентифікувати загублену дитину з точністю до 95%. У описі столичних систем відеоспостереження, що використовують технології розпізнавання облич, зазначено не лише про модуль, який дозволяє шукати правопорушників завдяки самим камерам, а і про порівняння зображень з базою правопорушників, яку створили органи правопорядку. Так, у метро камера робить 10-30 знімків на секунду, потім вибирає п’ять найкращих і відправляє на сервер. Інформація з пристроїв надходить до Центру опрацювання даних, де вона зберігається впродовж місяця. Адмініструванням системи опікується КП “Інформатика” КМДА, а розробкою алгоритмів – Міністерство внутрішніх справ та Служба безпеки України.

Загалом слід пам’ятати, що технології розпізнавання облич можуть виконувати різні функції. Зокрема, згідно з дослідженнями EU Agency for Fundamental Rights інформацію з камер використовують для виконання 3 основних завдань:

  • верифікація передбачає співвідношення “один до одного” – порівняння даних з двох біометричних шаблонів на приналежність одній особі; 
  • ідентифікація передбачає співвідношення “одного з усіма” – порівняння біометричного шаблону особи з іншими шаблонами у базі даних, щоб встановити чи міститься там інформація про таку особу;
  • категоризація передбачає групування за певними характеристиками усіх наявних біометричних шаблонів – найчастіше категорії включають стать (хоча розпізнавання статі й сексуальної орієнтації вважається технічно недосконалою та дискримінаційною практикою), вік, етнічне походження, рідше – колір волосся, колір очей тощо.

Серед технічних прогалин розпізнавання облич відеокамерами виокремлюють низьку якість зображення при поганому освітленні, а тому – неефективність такої технології у певні періоди доби чи у погано освітлених приміщеннях. Крім того, такі камери переважно отримують зображення, які важко розпізнати при збільшенні через низьку якість самих камер.

Зрештою, проблемою є те, що особи нечасто повертають обличчя до самої камери спостереження, дивлячись під ноги або в телефон. Таким чином, загальна ефективність таких технологій залишається досить низькою, що підтверджує львівський приклад, де лише 18 з 450 випадків використання функції розпізнавання облич призвели до позитивного результату. Крім того, відсутність різноманітності у наборах даних, упередженість у процесі маркування інформації або зображень та численні інші фактори роблять ці системи ненадійними та неефективними.

Отже, система схильна помилятися за наявності нечітких даних чи при неправильному аналізі таких даних. Зокрема, це стосується неточності у випадках старіння – коли фотографія молодої людини перестає бути зразком для ідентифікації особи через зміну зовнішності. Крім того, ще одна помилка передбачає наповнення системи гендерними та расовими стереотипами, що спричиняє порушення роботи та численні помилки. Науково це називають “позитивна хиба” (англ. “false positive”) та “негативна хиба” (англ. “false negative”). Перший тип стосується випадків, коли система визначає збіг у обличчі особи і фотороботі ймовірного порушника, хоча насправді це абсолютно різні люди. Другий тип хиб має місце, коли зображення особи по факту збігається із фотороботом у базі даних, проте система не встановлює збігу. Оскільки дизайнери та розробники самі визначають допустимий рівень помилок, системи стають непрозорими та ненадійними.

EU Agency for Fundamental Rights з цього приводу зазначає, що алгоритми у таких технологіях не дають чіткого результату, а лише встановлюють відсоток схожості. Крім того, увагу слід приділяти кількості осіб, яких ідентифікують за допомогою цих камер. Якщо “позитивна хиба” становить 8%, а за день у метрополітені було проаналізовано обличчя 50 тисяч осіб – камера може помилитися щодо 4 тисяч осіб. Тому покладатися винятково на камери, що оснащені функцією розпізнавання облич, при пошуку загублених дітей чи осіб, які перебувають у розшуку – досить ненадійно.

Якою є основна проблема з помилковими рішеннями? Перш за все, йдеться про закладені в алгоритми упередження, через призму яких функціонує вся система, дискримінуючи вразливі та маргіналізовані групи. Наприклад, за численними підрахунками, поліція часто націлюється на кольорових людей (англ. “people of colour”) через шкідливі расові стереотипи. Те саме стосується мігрантів та людей з інвалідністю, жінок, осіб з невизначеним гендером, представників ЛГБТК+, нижчого соціально-економічного класу та фактично будь-якої іншої групи, яку можна розпізнати за допомогою системи розпізнавання облич. На практиці тести, проведені в США, вже показали, що рівень помилок систем розпізнавання обличчя суттєво відрізняється залежно від демографічних характеристик, включаючи вік, стать та країну походження. Як наслідок, застосування таких систем неможливе до абсолютного подолання інституційної дискримінації та розробки алгоритмів, заснованих на справді нейтральній та неупередженій інформації.

Big brother is still watching you…

Камери з функцією розпізнавання облич поширені у багатьох державах. Цілі їх встановлення, наслідки, виклики та правове регулювання суттєво різняться залежно від юрисдикції. Втім, оцінивши практику іноземних країн, можна виокремити тенденції у юридичній кваліфікації таких технологій та рівні захисту прав людини державами, що такі системи застосовують.

Правозахисна організація Human Rights Watch розкритикувала плани Росії розширити використання відеокамер з функцією розпізнавання облич через часте порушення принципів конфіденційності внаслідок їх застосування. Нагадаємо, що камери пропонували встановити у чверті потягів метро, на вході у багатоквартирні будинки та в інших громадських місцях для розшуку порушників карантину чи осіб, які кваліфіковані Міністерством внутрішніх справ Росії як злочинці. Так, експерти Human Rights Watch наголосили на можливості зловживань новітніми технологіями з боку російської влади з огляду на регулярні порушення прав цією державою. Активісти та правозахисники неодноразово наголошували на відсутності будь-якого механізму правового нагляду чи перегляду рішень систем спостереження.

Наслідком стало рішення у справі Roman Zakharov v Russia, де Європейський суд з прав людини (далі – ЄСПЛ) визнав російське законодавство таким, що порушує принцип адекватних та ефективних гарантій від зловживань. Інформація зі столичних камер, які мали функцію розпізнавання обличчя, стала товаром на “чорному ринку” персональних даних, що призвело до судових позовів від правозахисників. Крім того, активісти звинувачували державу у використанні технологій розпізнавання облич камерами для перешкоджання мирним демонстраціям і мітингам та подальшого переслідування їх учасників. Внаслідок таких дій з боку російського уряду, активісти подали заяву до ЄСПЛ щодо порушення їхніх прав на приватність та мирні зібрання, захищених відповідно статтями 8 та 11 Конвенції. Паралельно із процесом у Євросуді правозахисники почали збирати підписи під петицією про заборону відеокамер із функцією розпізнавання облич.

Ще складнішою є ситуація у Китаї. Наразі масштабний проект “Гостре око” передбачає встановлення близько 600 мільйонів камер з функцією розпізнавання облич. Дослідження вказують, що розміщення такої кількості камер по всій державі дозволяють розпізнати 1,4 мільярда облич за 1 секунду. Швидко реагуючи на пандемію, Китай також розробив систему, яка здатна розпізнавати обличчя людей у масках. 

Втім, технології у Китаї використовують далеко не для захисту публічного порядку. Зокрема, за допомогою камер та технологій розпізнавання облич уряд ідентифікує уйгурську меншину та застосовує репресії до таких осіб. Будь-які новітні розробки фактично тестують на уйгурах. Зображення і персональні дані порушників правил поведінки розміщують на великих білбордах для публічного осуду таких осіб. Більше того, технології розпізнавання облич за допомогою відеокамер застосовуються навіть для контролю за кількістю туалетного паперу у громадських вбиральнях – так, відбувається сканування облич осіб, які користуються цим сервісом і перевірка кількості паперу, яку вони використовують.

На додачу, наразі систему розпізнавання облич використовують для укладання індексу благонадійності громадян, на основі якого видаються дозволи на поїздки за кордон, публічні активності – а також для переслідування опозиції. Ще однією з китайських практик, які розкритикувала організація Article 19, є системи розпізнавання емоцій, які суттєво шкодять конфіденційності та навіть здатні порушити право на захист від самовикриття. Безперечно, ці заходи є не лише збором конфіденційної інформації без згоди особи, а і суттєвим психологічним тиском на громадян у публічних місцях.

Враховуючи, що сьогодні Китай є одним з найбільших розробників технологій розпізнавання облич, пристрої відеоспостереження з такими функціями часто виготовляються на експорт. Втім, далеко не всі держави згодні співпрацювати з авторитарною китайською владою. Так, у Сполучених Штатах китайська компанія Hikvision потрапила до санкційного списку через загрози національній безпеці і можливість збору даних з камер третіми особами. Крім того, американська правозахисна організація нещодавно звернулася до президента Байдена із відкритим листом щодо відмови від використання технологій розпізнавання облич американським урядом. Основним аргументом було те, що такі технології “у непропорційних обсягах неправильно ідентифікують та класифікують осіб за ознакою раси, статі, сексуальної орієнтації та дискримінують представників інших маргіналізованих груп”. Тим часом, у Сан-Франциско (штат Каліфорнія) місцева влада заборонила використання технологій розпізнавання облич будь-де, крім місць масового скупчення людей – вокзалів, аеропортів та автостанцій. Багато інших штатів, включно з Массачусетсом та Орегоном, також відмовилися від таких систем, тоді як ініціатива заборони технологій розпізнавання обличчя на федеральному рівні стає все більш популярною. Таким чином, у Сполучених Штатах наразі триває достатньо гострий дискурс щодо легальності відеокамер з можливістю розпізнавати обличчя.

Дещо інша ситуація трапилася у Британії, де дискусія щодо правового регулювання таких систем сягнула рівня судових дебатів. Наприклад, у справі R (Bridges) v Chief Constable of South Wales Police and Others суд встановив, що використання таких камер прямо впливає на реалізацію права особи на приватність і становить втручання у таке право. Ба більше, суд підкреслив, що застосування подібних технологій потребує суттєвого і детального правового регулювання, а також дотримання принципу пропорційності – не можна збирати більше інформації і про більшу кількість осіб, ніж це необхідно для досягнення легітимної мети. У іншій справі британський суд зазначив, що дискусійним також є питання про те, хто може бути внесений у базу камер для подальшого пошуку і аналізу. Зокрема, суд підкреслив, що законодавство має чітко регулювати це питання, адже інакше поліція матиме надто широку дискрецію для втручання у приватне життя.

Міжнародні стандарти: старі норми нова реальність

Що про такі технології говорить міжнародне право? Перш за все, звернемось до практики ЄСПЛ, який у справі Szabó and Vissy v Hungary визнав зображення обличчя особи чутливою біометричною інформацією. Аналогічної позиції дотримується і Суд справедливості ЄС, який у Michael Schwarz v Stadt Bochum наголосив на забороні поширення подібних даних без згоди особи і необхідності детально регулювати питання збору таких даних у публічних місцях. Крім цього, у справі S and Marper v the United Kingdom ЄСПЛ підкреслив, що чутливі біометричні дані навіть у виняткових випадках не можуть поширюватися у більших обсягах, ніж це очікувано для особи. При цьому період, на який дані збираються, не відіграє ролі нелегальний збір даних на короткі строки також вважатиметься порушенням статті 8 Конвенції.

Водночас, у Peck v the United Kingdom за допомогою вуличних камер відеоспостереження поліції вдалося ідентифікувати особу, яка намагалася вчинити самогубство. Згодом зображення з чітким обличчям особи потрапили до медіа – місцевої газети та телебачення. ЄСПЛ встановив порушення статті 8 через поширення та використання такої інформації без згоди особи. 

Цікавішою є ситуація у Perry v the United Kingdom, де заявник знав про наявність камер, проте не отримав попередження про запис і можливість подальшого використання інформації для процедури його ідентифікації, що на думку ЄСПЛ, становило порушення статті 8 Конвенції. У іншій справі проти Британії – Catt v the United Kingdom – Суд підкреслив, що у випадку зберігання даних після їх збору державі слід розробити чіткі процедурні правила і гарантії щодо розголошення, використання і знищення такої інформації. Також ЄСПЛ наголосив, що намір створити базу даних для поліції має бути чітко передбачений у національному законодавстві і належно врегульований. А у справі Gaughran v the United Kingdom Суд вважав порушенням те, що фотографія зберігалася в локальній базі даних, а потім могла бути завантажена до бази даних поліції і використана системою розпізнавання облич без можливості перегляду чи нагляду з боку спеціального органу. 

Водночас, дві останні справи ЄСПЛ – Big Brother Watch and Others v the United Kingdom та Centrum för Rättvisa v Sweden дещо прояснили підходи до оцінки масового спостереження на міжнародному рівні. У цих справах Суд встановив, що системи масового перехоплення даних в цілому не порушують прав людини, але є ряд обмежень, яких уряди мають дотримуватися при імплементації таких технологій.

Серед них варто згадати обов’язок створити незалежний орган, який перевірятиме дозволи на стеження, та зобов’язати органи правопорядку оцінювати необхідність стеження, визначати об’єкт та обсяг збируваної інформації у кожному випадку. Якщо громадянин вважає, що його права порушено – його мають забезпечити можливістю оскаржити дозвіл незалежного органу у судовому порядку, що слугуватиме додатковою гарантією і захистом від зловживань. До того ж, у випадку нецільового спостереження можуть бути порушені і права журналістів на захист журналістських джерел (коли журналісти зустрічаються для інтерв’ю з особою у публічних місцях), що породить “охолоджуючий ефект” для свободи вираження поглядів.

Подібні припущення можна зробити і щодо використання технологій розпізнавання обличчя для спостереження під час демонстрацій, де численні активісти, журналісти, політичні дисиденти та опозиція можуть утриматись від участі через потенційну ідентифікацію та подальше переслідування. Однак, однією з найважливіших новел практики ЄСПЛ є обов’язок брати до уваги питання приватності у випадках, коли дані отримані з таких систем передаються іноземним партнерам (наприклад, органам правопорядку сусідніх держав у справах нелегального перетину кордону тощо). Зокрема, це стосується гарантій правильного використання персональних даних, розробки процедури оскарження неправомірних дій з боку іноземних органів та можливості видалення даних у разі досягнення мети їх збору чи нерелевантності їх такій меті.

Важливою також є мета збору біометричних даних. Наприклад, у Lupker and Others v the Netherlands особисті фото використовувалися винятково для ідентифікації правопорушників без жодної можливості використання зображень для інших цілей. Водночас, у Friedl v Austria Суд розглянув легальність використання фото участі заявника у демонстрації, які робилися для перевірки дотримання правил та санітарних умов під час публічного заходу. У висновку, ЄСПЛ постановив, що органи влади не здійснили надмірного втручання у приватність заявника, адже вони не заходили до помешкання заявника та не знімали його у місцях, де очікується конфіденційність натомість, вулиця є публічним місцем.

Втім, у цій ситуації не відбувалося масової і перманентної зйомки, а мета зображень була чітко визначеною наперед перевірити дотримання необхідних норм учасниками конкретного заходу. Під час використання камер з функцією розпізнавання облич на постійній основі навряд можна визначити конкретні цілі та обмеження щодо подальшого використання зображень. Так, легітимна мета “попередження злочинів та захисту публічного порядку” не дозволяє встановити проміжок часу, протягом якого зберігатиметься інформація, а також обґрунтування підстав збору даних про необмежену кількість осіб.

Конвенція 108+ передбачає, що обробка таких категорій даних, як біометричні, можлива лише на підставі закону за наявності відповідних та належних запобіжників від зловживань. Комітет Ради Європи зі штучного інтелекту у своїх дослідженнях наголошує, що системи розпізнавання обличчя можуть серйозно загрожувати правам на приватність, свободу вираження поглядів та заборону дискримінаційного поводження, тому необхідна конкретна нормативна база для таких технологій. У своїх керівництвах Рада Європи підкреслила, що при розробці законодавства для систем розпізнавання облич до уваги слід брати фази використання таких технологій (включаючи створення баз даних та застосування), напрями, де використовуються технології, рівень втручання у приватність. Крім цього, різні стандарти застосовуються до органів правопорядку та інших державних органів. Основними вимогами до нормативних актів у цій сфері є:

  • детальне пояснення цілі використання конкретних даних;
  • мінімальні гарантії надійності і точності використовуваного алгоритму;
  • визначена тривалість зберігання використаних зображень;
  • можливість перегляду цих критеріїв;
  • прозорість та відстежуваність процесів;
  • наявність запобіжних заходів.

Відповідно до пропозицій Єврокомісії щодо регулювання штучного інтелекту, системи розпізнавання осіб, які передбачають біометричну ідентифікацію, є ризиковими. Їх використання у публічних місцях, у тому числі, в інтересах правоохоронних органів, прямо заборонено, окрім виняткових випадків. Вони включають пошук загублених дітей, запобігання терористичній діяльності або пошук особливо небезпечних злочинців. Кожен з цих випадків потребує дозволу суду чи іншого уповноваженого органу.

Водночас, Європейська рада з захисту даних заявила, що технології біометричного нагляду повинні бути заборонені до використання за будь-яких обставин, незалежно від законності цілей, переслідуваних їх застосуванням. Резолюція 1604 (2008) “Відеоспостереження у публічних місцях” Парламентської асамблеї Ради Європи наголошує, що кожен, хто потрапляє до зони відеоспостереження, повинен знати про це й мати доступ до всіх записів зі своїм зображенням. Крім цього, Human Rights Watch зазначила, що уряд повинен публікувати статистичні дані про ефективність роботи систем розпізнавання облич та запрошувати експертів громадянського суспільства до участі у дебатах щодо необхідності, пропорційності та законності використання нагляду за такими технологіями. 

Інші ініціативи громадянського суспільства йдуть ще далі, закликаючи встановити абсолютну заборону на біометричний нагляд та системи розпізнавання облич, тоді як у межах ЄС є відкрита петиція щодо нового закону, який заборонить такі технології. Крім того, згідно з результатами опитування Комітету Ради Європи зі штучного інтелекту, системи розпізнавання обличчя перебувають у першій частині списку серед найбільш небезпечних систем штучного інтелекту, тоді як інформація, отримана з таких систем, завжди має підлягати людському перегляду. Тобто міжнародне право у сфері захисту прав людини повинне встановити суттєві обмеження на можливість використання систем штучного інтелекту з метою розпізнавання облич органами правопорядку.

Сам собі режисер по-українськи

Українське законодавство прямо не відносить зображення обличчя до персональних даних, які є захищеними на законодавчому рівні. Тому, на відміну від адміністрування паспортних даних, адміністратори систем відеоспостереження не мають значного інтересу у захисті такої інформації. До того ж, Державна служба спецзв’язку та захисту інформації зазначає, що відсутність статусу персональних даних призводить до ситуації, коли вимога атестації систем незастосовна, якщо вона збирає зображення обличчя особи чи номеру її транспортного засобу.

Втім, дослідження Омбудсмана України вказують , що Закон України “Про захист персональних даних” все ж має бути застосовним до функціонування камер, які здатні розпізнавати обличчя. Зокрема, у нещодавньому звіті було повідомлено про численні порушення процедур обробки та захисту персональних даних, неповідомлення суб’єкта про збір інформації та відсутність згоди на таку обробку. Такі дії з боку розпорядників прямо порушують статтю 8 Закону, яка вимагає ознайомлення особи з механізмами автоматичної обробки персональних даних, а також захисту від автоматизованого рішення, яке має для нього правові наслідки (наприклад, відповідність обличчя особи фотороботу ймовірного правопорушника).

Наразі відеокамери, оснащені технологіями розпізнавання облич, встановлюють органи місцевого самоврядування. Жоден нормативно-правовий акт не наділяє ці органи повноваженнями обладнати міста такими системами. Навіть регламенти і положення, затверджені місцевими радами, не ґрунтуються на положеннях закону, а відповідно – не можуть створити юридичних прав і обов’язків як для розпорядників інформацією, так і для осіб, чиї дані потрапляють до бази. Враховуючи неможливість встановити документ, який насправді регулює діяльність таких відеокамер, питання щодо доступу особи до інформації про неї у таких системах навряд чи отримає відповідь. У такому випадку бачимо порушення міжнародно-правових зобов’язань України. Фактично, ця ситуація може слугувати чудовим плацдармом для численних позовів до ЄСПЛ щодо порушення статті 8 Конвенції.

Крім того, українське регулювання конче потребує запобіжників від зловживань такими технологіями. Зокрема, як один з найяскравіших прикладів незахищеності систем експерти зазначають випадок, коли громадянин Киргизстану намагався встановити вибуховий пристрій на машині співробітника Головного управління розвідки Міноборони Кирила Буданова. Під час судового провадження встановили, що про місце розташування машини злочинець дізнався з бази даних “Smart city”, доступ до якої отримав завдяки родичу-поліціянту. Іншим випадком, згаданим у контексті відсутності гарантій забезпечення прав, є ситуація зливу інформації про переміщення першої заступниці директора Державного бюро розслідувань оператором системи. Таким чином, наразі не існує ані технічних, ані правових запобіжників від зловживань.

Крім того, у вищезгаданих справах Perry, Catt та Gaughran ЄСПЛ наголосив на необхідності попереджати про обробку даних, наявність чіткої процедури і нагляду за діяльністю системи розпізнавання облич. Київський метрополітен, до прикладу, хоч і попереджає про факт ведення відеоспостереження, жодним чином не зазначає про функцію розпізнавання облич та подальше використання такої інформації. Очевидно, українські системи відеоспостереження навряд оснащені й функцією перегляду чи мають чітке процедурне керівництво, з яким кожен охочий може ознайомитися, аби дізнатися, що відбувається з його біометричними даними. Не передбачає український закон і процедури для створення і ведення бази даних поліції. Логічним висновком є те, що технології з високою ймовірністю є порушенням вимог статті 8 Конвенції.

Зрештою, багато питань виникає щодо загальної пропорційності втручання у права людини за допомогою відеокамер з функцією розпізнавання облич. Принцип пропорційності передбачає застосування найменш обмежувального, але найбільш ефективного заходу. У випадку таких технологій ефективність часто є надзвичайно сумнівною через численні технічні прогалини, які ускладнюють ідентифікацію осіб за допомогою камер та спричиняють помилки у аналізі інформації з бази даних. Інший фундаментальний виклик полягає у соціальній нерівності, такій як інституційний расизм, сексизм та інші форми дискримінаційного ставлення, що часто конвертують у алгоритми систем. Таким чином, ймовірність шкоди від таких систем наразі видається більшою, ніж їхня ефективність відповідно, використання їх наразі складно назвати пропорційним, а їхнє існування допустимим у демократичному суспільстві.

Чи можна легалізувати нелегальне? 

Відсутність будь-якого специфічного регулювання робить процедуру збору і обробки біометричної інформації надмірним втручанням у приватність та інші права людини. Зокрема, це порушує вимогу законності, викристалізовану у практиці ЄСПЛ (див. Ćosić v Croatia). Більше того, в Україні суб’єкти збору та обробки біометричних даних не дотримали навіть загальної норми статті 8 Закону України “Про захист персональних даних” через відсутність згоди осіб, інформування про збір таких даних, а також доступу до інформації у системі (за браком юридичного механізму – кому надсилати запити і хто зобов’язаний відповісти). Тому до моменту розробки належного законодавчого регулювання використання таких систем є нелегальним за будь-яких обставин.

Крім цього, навіть у разі розробки спеціальних регулівних норм, слід пам’ятати про абсолютну заборону масового невибіркового нагляду, на якій неодноразово наголошував як Комітет ООН з прав людини, так і ЄСПЛ. Зокрема, у Gillian and Quinton v the United Kingdom Суд наголосив, що моніторинг для запобігання терористичним активностям є незаконним без розумної підозри у вчиненні правопорушення чи невідворотній можливості його вчинення. Тобто спостереження може встановлюватися лише за особами, які мають статус підозрюваного, а не масово у місцях великого скупчення людей на кшталт метро.

Ба більше, тривалість спостереження і тип зібраної інформації напряму залежать від природи та тяжкості ймовірно вчиненого правопорушення (див. Weber and Saravia v Germany). Тобто масове нецільове спостереження без визначення об’єкту та без отримання дозволу не відповідає цьому стандарту за жодних умов, зокрема через непропорційність втручання у приватність багатьох інших осіб, які не є підозрюваними у жодному порушенні. Особливо небезпечним спостереження є за відсутності запобіжників у формі видалення нерелевантної інформації, регламентування тривалості зберігання біометричних даних та обмеження режиму доступу (доступ лише на підставі рішення суду чи іншого відповідального органу). Спеціальна процедура має бути розроблена і для обміну такою інформацією з іноземними партнерами.

Проте, крім питання захисту персональних даних, слід звернути увагу і на численні інші проблеми, які виникають внаслідок застосування відеокамер з функцією розпізнавання обличчя. Ключовими серед них є: 

  • можливість незаконного комерційного використання даних (як-от, рекламний таргетинг, зокрема, і політичний);
  • ризики дискримінації осіб через позитивні/негативні хиби системи, наявність інституційної дискримінації в суспільстві та подальшу її конвертацію в алгоритми системи;
  • ризики неправомірного притягнення осіб до відповідальності, коли система неправильно співвідносить людину з фотороботом (що вже трапилося у практиці Сполучених Штатів);
  • проблема статусу такої інформації як доказу у суді (зокрема, через відсутність правового регулювання);
  • ймовірність порушення права на свободу вираження поглядів у частині захисту журналістських джерел;
  • загрози для належної реалізації права на мирні зібрання (в тому числі створення “охолоджуючого ефекту” для активістів через страх притягнення до відповідальності внаслідок участі у мітингах, демонстраціях, протестах);
  • можливість зловживань і використання систем для політичних переслідувань з боку держави, утисків вразливих та маргіналізованих груп тощо.

Альтернативою відеокамерам, що мають функцію розпізнавання облич, сьогодні є системи, які встановлюють загублену особу чи ймовірного правопорушника на підставі інших параметрів (без аналізу обличчя). Це включає одяг, статуру, манеру ходи, наявність прикметних речей тощо. Такі технології поширюють й українські виробники, обробляючи анонімізовані дані та зменшуючи потенціал системи дискримінувати осіб за будь-якою ознакою. Втім, можливості таких пристроїв, а також їх правова оцінка – це окреме поле для роздумів і аналізу.

Ця аналітика була розроблена ЦЕДЕМ в рамках Technical Assistance Support в Україні, що здійснюється European Center for Not-for-Profit Law Stichting (ECNL). Проект став можливим завдяки підтримці International Center for Not-for-Profit Law (ICNL) через Civic Space Initiative.

Ця публікація повністю фінансується урядом Швеції. Уряд Швеції не обов’язково поділяє викладені тут думки. Автор несе виключну відповідальність за зміст.