Онлайн-безпека: як DSA змінює правила в Інтернеті

December 27, 2023

Онлайн-платформи пропонують простір для висловлювання думок, спілкування та торгівлі. Вони трансформували спосіб, яким ми спілкуємося, працюємо та відпочиваємо, відкриваючи можливості для глобальної взаємодії. Однак, разом з перевагами приходять і виклики. Як захистити наші дані, безпеку та якість інформації в цьому середовищі, яке так швидко розвивається?

Регламент належного функціонування ринку цифрових послуг Digital Services Act (далі – DSA), розроблений Європейською Комісією, – відповідь на ці питання. DSA встановлює чіткі норми та правила для онлайн-платформ, спрямовані на забезпечення більшої прозорості та відповідальності. Він виходить за межі традиційних законів інтернету, пропонуючи більш інноваційні рішення для сучасних проблем. DSA повноцінно набуде чинності 17 лютого 2024. 

Дія DSA охоплює широкий спектр онлайн-сервісів, від соціальних мереж до пошукових платформ. Його мета – створити безпечне онлайн-середовище, використовуючи принцип “що незаконне офлайн, має бути незаконним і онлайн”. Це новий стандарт безпеки, який вимагає від постачальників послуг активно боротися з незаконним контентом та забезпечувати захист користувачів, зокрема і їхніх прав та створення безпечного середовища (стаття 1 DSA). 

DSA став частиною загальноєвропейської цифрової стратегії Europe’s Digital Decade, яка покликана зробити так, щоб цифрові технології та інтернет стали більш доступними, безпечними та дружніми для користувачів в усіх країнах ЄС. І DSA допомагає досягти цього. 

В аналітиці Центру демократії та верховенства права ми розберемо основні нововведення DSA та як він може вплинути на наш користувацький досвід.

Що має вирішити DSA?

Створенню DSA передувала низка серйозних проблем, які виникли в онлайн-середовищі та спричинили необхідність впровадження ефективного регулювання. Однією з основних проблем стало поширення незаконного та шкідливого контенту на платформах, таких як соціальні мережі та пошукові системи. Це були різноманітні види контенту, від фейкових новин до екстремістських матеріалів, які можуть шкодити користувачам та суспільству в цілому. Наприклад, всім відомі фейкові новини про COVID-19: розповсюдження міфів та дезінформації щодо походження вірусу, методів лікування, та навіть існування пандемії.

Крім того, загострилась проблема недостатньої прозорості та відповідальності провайдерів цифрових послуг, що призвело до зростання випадків порушення приватності та інших загроз безпеці. Наприклад, використання компанією Cambridge Analytica даних користувачів, отриманих з Facebook, для впливу на процес президентських виборів в США. У 2014 році за допомогою додатку “This Is Your Digital Life” звичайної, на перший погляд, гри було злито дані більш ніж 87 мільйонів користувачів. Після цього Cambridge Analytica використала отримані дані для президентської кампанії Трампа, щоб впливати на поведінку виборців. Детальніше про це та те, як використання персональних даних та профілювання користувачів може вплинути на результати виборів, ви можете прочитати тут.

Криза довіри до цифрового середовища, викликана цими проблемами, стала важливим стимулом для розробки DSA. Кричущі випадки порушень безпеки даних, атак на особисті дані користувачів та поширення дезінформації створили термінову необхідність запровадити комплексне регулювання, яке б гарантувало безпеку та якість інформації в цифровому середовищі.

На кого поширюється DSA?

DSA має екстериторіальну дію і поширюється на послуги, одержувачі яких перебувають або проживають у ЄС.

Суб’єкти, на яких поширюється DSA – це онлайн-сервіси, які є постачальниками посередницьких послуг, наприклад надають послуги простого каналу, кешування або хостингу. До них можуть належати:

  • месенджери; 
  • інтернет-провайдери; 
  • маркетплейси;
  • онлайн-платформи;
  • магазини додатків;
  • інші онлайн-сервіси, де користувачі можуть обмінюватись повідомленнями, контентом, зберігати інформацію. 

Оскільки випадки впливу на користувачів та порушення їхніх прав здебільшого зустрічаються саме на онлайн платформах, детальніше розглянемо, на які з них поширюватиметься дія DSA.

Правила DSA поширюватимуться на онлайн-платформи, які мають понад 45 мільйонів користувачів (тобто 10% населення ЄС), поділяються на два види: 

  • дуже великі онлайн-платформи (Very large online platforms VLOP). У квітні 2023 року Європейська Комісія (далі – Комісія) оприлюднила перелік платформ, що належать до VLOP. До них потрапили: Alibaba AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando. 
  • дуже великі онлайн-пошукові системи (Very large online search engines VLOSE). До таких віднесли Bing та Google search. 

Цифра у 45 мільйонів користувачів зумовлена тим, що такі платформи здатні мати найбільший вплив на безпеку в Інтернеті, онлайн-торгівлю та поширення інформації. Комісія може знизити поріг 45 мільйонів користувачів, якщо встановить, що платформа має значний вплив. Саме тому в Україні вже підняли питання того, що Telegram також слід віднести до таких платформ, оскільки він має значний вплив на території всієї України. Проте, чи відбудеться це невідомо, оскільки на території ЄС ним користується незначна частина людей. 

VLOP та VLOSE зобов’язані постійно надавати інформацію про кількість своїх користувачів, тому цей перелік може змінюватись. Враховуючи великий вплив VLOP та VLOSE, для них встановлено спеціальні зобов’язання на додаток до зобов’язань для всіх онлайн-платформ: наприклад, додаткові вимоги щодо модерування вмісту, забезпечення прозорості та підзвітності, захисту неповнолітніх, оцінки ризиків на зразок поширення дезінформації та вжиття необхідних заходів для протидії їй, обов’язковий доступ до даних для дослідників, вимоги надавати свої положення та умови користування.

Зобов’язання, що встановлює DSA

Правила та умови

Постачальники посередницьких послуг повинні чітко вказувати свої правила щодо використання сервісу в умовах користування і надати інформацію про:

  • політики;
  • процедури;
  • заходи та інструменти, що використовуються для модерації вмісту, в тому числі алгоритмічне прийняття рішень та перевірку людьми.

В DSA значну увагу приділяють тому, щоб такі процедури та інформація були викладені зрозумілою для користувачів мовою та були доступними усім. Тому основні умови користування мають бути надані користувачам стислим і легким для читання способом та включати можливість легкої відмови від необов’язкових пунктів (пункт 89 DSA). Для VLOP та VLOSE є додаткові вимоги: наприклад, надання коротких версій умов користування та їх публікація всіма офіційними мовами країн, де вони пропонують свої послуги.

Якщо сервіс в основному використовують неповнолітні, правила повинні бути написані зрозумілою для них мовою. 

Дизайн 

Серед недобросовісних гравців ринку поширеною практикою є маніпулювання поведінкою користувачів через спеціально оформлений інтерфейс або надання недостовірної інформації. У боротьбі за увагу та кошти користувачів, компанії можуть застосовувати методи, які привертають увагу та збільшують користувацьку активність, навіть якщо це може включати маніпулятивні прийоми. 

Наприклад, використання формулювання “товар закінчується” для того, щоб заохотити людей швидше придбати його, хоча товару достатньо або елементи інтерфейсу, які приховують важливу інформацію про товар чи послугу, наприклад, вартість доставки товару. Комісія опублікувала дослідження цього питання і встановила, що 148 з 399 онлайн-магазинів використовують такі недобросовісні практики. Саме тому в DSA передбачено, що постачальники онлайн-платформ повинні проєктувати та організовувати свої інтерфейси таким чином, щоб не вводити в оману користувачів або не маніпулювати ними. Іншими словами, дизайн і структура платформи мають сприяти тому, щоб користувачі могли приймати зважені та обґрунтовані рішення. 

Вказівки, які допоможуть зрозуміти, як застосовувати ці принципи в конкретних ситуаціях, має право видавати Комісія. Наприклад, платформи не повинні надавати перевагу вигідним постачальнику варіантам вибору, звертаючись до одержувача послуги щодо рішення. Вони також не повинні вимагати від користувача повторно робити вибір, якщо він вже був зроблений, особливо за допомогою спливаючих вікон, які можуть заважати взаємодії користувача з платформою. Окрім того, слід забезпечити, аби процедура відмови від послуги не була ускладненою порівняно з процедурою підключення до неї. Наприклад, ускладнення в процедурі відмови від послуги може включати в себе неочевидність щодо місця, де розміщена опція відмови, або маскування її елементами інтерфейсу.

Контент 

DSA встановлює, що онлайн-сервіси зобов’язані протидіяти розміщенню та поширенню незаконного контенту. Для цього вони мають визначити дії, що забезпечать можливість ефективно боротись з таким контентом – наприклад можливість повідомлення про незаконний контент – і виконувати їх. Проте, такі онлайн-сервіси не несуть відповідальність за незаконний контент, товари або послуги, які розміщують їхні користувачі. 

Показовим є рішення Європейського суду з прав людини (далі – ЄСПЛ) у справі “Санчес проти Франції” (Sanchez v. France) від 02.09.2021 року, заява № 45581/15. Жульєн Санчес був кандидатом у депутати до парламенту Франції. На своїй сторінці у Facebook він опублікував допис з критикою свого опонента. Під дописом з’явилась велика кількість негативних коментарів, що містили мову ворожнечі, розпалювати ненависть до осіб мусульманського віросповідання. Кримінальний суд Німа визнав двох осіб, які коментували допис Санчеса, та самого Санчеса винними у підбурюванні до ненависті та насильства щодо осіб мусульманського віросповідання. Кожного з них зобов’язали сплатити штраф 4000 євро. Після цього Санчес звернувся до ЄСПЛ. Він стверджував, що це рішення суду суперечить статті 10 Конвенції про захист прав людини і основоположних свобод щодо свободи вираження поглядів. ЄСПЛ постановив, що порушення статті 10 не було, а рішення суду, що Санчес є винним у тому, що він оперативно не видалив незаконних висловлювань, має достатні підстави. 

Цей випадок ілюструє, що свобода вираження поглядів має свої межі, особливо коли йдеться про висловлювання, що можуть підбурювати до ненависті або насильства. Це відображає загальну тенденцію відповідальності користувачів за контент, який вони поширюють. Водночас, наголосимо, що рішення зустріло масштабну критику в правовому та експертному колах. Детальніше ми розглядали можливі наслідки рішення в цьому матеріалі. Рішення є ризикованим, оскільки користувач має сам оцінювати контент замість суду, хоча він може не мати відповідних знань. Окрім того, це шлях до зловживання можливістю видалити коментарі.

Відповідно до DSA незаконний контент в Інтернеті слід розуміти як “посилання на інформацію, незалежно від її форми, яка відповідно до чинного законодавства сама по собі є незаконною, як-от незаконна мова ворожнечі чи терористичний контент, незаконний дискримінаційний контент, або яку чинні правила вважають незаконною з огляду на те, що це стосується незаконної діяльності”.

Наприклад, поширення зображень сексуального насильства над дітьми, переслідування в Інтернеті, продаж контрафактних продуктів, продаж продуктів або надання послуг із порушенням закону про захист прав споживачів, несанкціоноване використання захищеного авторським правом матеріалу, незаконна пропозиція послуг розміщення або незаконний продаж живих тварин (пункт 12 DSA). 

В рамках DSA, контент, який вважається незаконним – такий як терористичні матеріали, зображення сексуального насильства над дітьми або незаконна мова ненависті – визначається законами на рівні ЄС або національному рівні. Якщо контент є незаконним лише в одній країні-члені ЄС, зазвичай його потрібно видаляти тільки в межах цієї території. Водночас, DSA надає приклади того, що може вважатись незаконним контентом: наприклад, “розповсюдження матеріалів із сексуальним насильством над дітьми чи незаконних ворожих висловлювань, а також проведення незаконних дій, таких як продаж продуктів або послуг, заборонених відповідно до законодавства ЄС або національного законодавства, включаючи контрафактну продукцію” (пункт 57 DSA). 

Рекламні матеріали

Реклама досить частий спосіб поширення незаконного вмісту, наприклад, продажу продуктів або послуг, заборонених законодавством Європейського Союзу чи національним законодавством. Зокрема, небезпечних чи контрафактних продуктів або тварин, якими незаконно торгують (пункт 80 DSA). DSA охоплює будь-який вид реклами від маркетингу до політичних оголошень. Він зобов’язує платформи робити рекламу прозорою для користувачів: чітко вказувати, що це реклама, хто рекламодавець, і як відбувається таргетинг. Відповідно до DSA кожен користувач повинен мати змогу в реальному часі легко розпізнати таку інформацію:

  1. Ідентифікація реклами: чітке зазначення того, що конкретний контент є рекламним матеріалом; 
  2. Відомості про рекламодавця: зрозуміла інформація про фізичну чи юридичну особу, яка розмістила рекламу або заплатила за рекламу, якщо ця особа є іншою, ніж та, що розмістила її. Також користувачі повинні бачити, коли впливові особи просувають комерційні повідомлення;
  3. Критерії поширення: подробиці про ключові параметри, які були використані для визначення, кому показувати конкретний рекламний матеріал.

Наприклад, якщо рекламний банер на онлайн-платформі замаскований під звичайний контент, але не має чіткого позначення, що це реклама, це може ввести користувачів в оману. DSA вимагає від платформ забезпечити прозорість таких аспектів. 

Таким чином, користувачі матимуть змогу отримувати повну інформацію про рекламу, що допомагає забезпечити чесність рекламних практик та боротьбу з незаконним вмістом на платформах. Адже саме реклама часто стає джерелом поширення пропаганди, впливу на демократичні процеси, заохочення до азартних ігор та інших негативних наслідків. Зараз в ЄС працюють над Регламентом про прозорість та таргетинг політичної реклами, а в Україні набули чинності зміни до ЗУ “Про рекламу”. Такі кроки мають сприяти покращенню взаємодії користувачів з рекламними матеріалами та захисту їх прав.

Дуже великі онлайн-платформи повинні проводити оцінку того, чи здійснювались маніпуляції з їхніми рекламними системами та перевіряти, чи може це спровокувати суспільні ризики. Тобто вони мають оцінювати, чи може певний матеріал вплинути на велику кількість людей, рівень потенційної незворотності наслідків або наскільки складно може бути відновити ситуацію, яка існувала до потенційного впливу. Якщо будуть виявлені такі ризики, відповідна платформа має діяти для їх пом’якшення, наприклад, вносити змін до своїх систем рекомендацій (стаття 94 DSA). 

DSA доповнює Загальний регламент про захист даних (General Data Protection Regulation) і забороняє таргетинг неповнолітніх та таргетовану рекламу на основі спеціальних категорій персональних даних, зокрема:

  • етнічної приналежності:
  • сексуальної орієнтації:
  • політичних поглядів. 

Системи рекомендацій

Для забезпечення прозорості та захисту прав користувачів, якщо постачальники онлайн-платформ використовують системи рекомендацій (алгоритми, які визначають, яку інформацію та в якому порядку показувати користувачам), вони мають написати про це в умовах користування. Системи рекомендацій на онлайн-платформах працюють на основі аналізу даних про поведінку користувачів в Інтернеті, враховуючи, наприклад, їхні попередні пошукові запити чи переглянуті сторінки. Ці системи можуть автоматично пропонувати контент, який потенційно буде цікавим або корисним для користувачів, сприяючи тим самим залученню та утриманню їхньої уваги на платформі. 

На додачу до зобов’язань щодо прозорості, які застосовуються до онлайн-платформ щодо їхніх систем рекомендацій, VLOP чи VLOSE також повинні надати користувачам можливість обрати альтернативний варіант рекомендацій, який не ґрунтується на профілюванні. Такі варіанти вибору повинні бути доступні безпосередньо з онлайн-інтерфейсу, де зображені рекомендації (стаття 70 DSA). 

Прозорість постачальників посередницьких послуг

DSA зобов’язує постачальників посередницьких послуг забезпечувати більшу прозорість у діяльності щодо модерації контенту. Принаймні один раз на рік постачальники посередницьких послуг повинні публікувати легко зрозумілі та детальні звіти про модерацію контенту, якою вони займались протягом звітного періоду. Регламент надає інформацію, яку мають включати такі звіти залежно від виду постачальника посередницьких послуг, а саме:

  1. кількість наказів, які вони отримали від державних органів;
  2. кількість повідомлень, будь-які дії, які були вжиті відповідно до отриманих повідомлень; 
  3. інформацію про модерацію контенту, яку постачальники здійснюють за власною ініціативою та заходи, які були вжиті;
  4. кількість скарг, яку отримали через внутрішню систему розгляду скарг, їх підстави, а також рішення, що прийняли щодо таких скарг та час, що потрібний для прийняття таких рішень, кількість випадків, коли рішення скасували.

Звіти допоможуть підтримувати високий рівень відкритості та відповідальності, а також забезпечать можливість для користувачів та органів влади відстежувати політику реагування платформ на незаконний вміст, що порушує правила. Це, у свою чергу, зміцнить відповідальність платформ перед суспільством, забезпечуючи більшу відкритість їхніх процесів і політик, тим самим покращуючи захист прав користувачів і підвищуючи довіру до цифрових платформ. 

Проте ці вимоги не стосуються мікро- або малих підприємств чи тих, що не належать до VLOP. Це може спричинити певні ризики, наприклад, те, що менші платформи не мають такого ж рівня контролю та відповідальності, як великі платформи, крім того, вони можуть стати каналами для поширення шкідливого контенту чи дезінформації. Без такого ж рівня прозорості та відповідальності ці платформи можуть стати центрами такої діяльності, яка може залишитися неконтрольованою через менш суворе регулювання.

Повідомлення про незаконний вміст

Відповідно до DSA постачальники послуг хостингу мають запровадити механізми, які дозволять будь-якій фізичній чи юридичній особі повідомляти про наявність ймовірного незаконного вмісту. Таке повідомлення можна подати виключно електронними засобами і воно має містити всі елементи, перелічені нижче:

  • пояснення причин, чому фізична чи юридична особа вважає інформацію, про яку йде мова, незаконним вмістом;
  • чітку вказівку електронного розташування такої інформації, зокрема точну URL-адресу або URL-адреси та, у разі необхідності, додаткову інформацію, що дозволяє ідентифікувати незаконний вміст;
  • ім’я та адресу електронної пошти фізичної чи юридичної особи, яка надсилає повідомлення, за винятком випадків, коли інформація вважається пов’язаною з одним із правопорушень, зазначених у статтях 3–7 Директиви 2011/93/ЄС;
  • заяву, яка підтверджує добросовісне переконання фізичної або юридичної особи, яка подає повідомлення, що інформація та твердження, що містяться в ньому, є точними та повними.

Якщо фізична чи юридична особа, яка подала таке повідомлення, зазначила своє ім’я та адресу електронної пошти, постачальник послуг хостингу одразу повинен надіслати їй підтвердження, що повідомлення отримане. Після того, як постачальник прийняв відповідне рішення, він повинен негайно повідомити фізичну чи юридичну особу, яка надіслала повідомлення, про нього. У свою чергу, користувачі, чий контент було видалено або обмежено через скаргу, мають право оскаржити модерацію або видалення їхнього контенту.

Користувачам, які часто публікують незаконний вміст, онлайн-платформи можуть зупинити надання своїх послуг на певний термін. Також вони можуть призупинити обробку повідомлень та скарг для користувачів, які часто подають явно необґрунтовані повідомлення або скарги. Це положення важливе, оскільки таким чином навантаження на платформу буде зменшено, а ресурси можуть бути використані більш ефективно. 

Контактні особи

Важливою складовою роботи платформ є наявність контактної особи. Зараз вже є випадки, коли відсутність офіційного представника та налагодженої комунікації може принести платформі безліч проблем. Наприклад, Німеччина оштрафувала месенджер Telegram на 5,125 млн євро за недотримання Закону про захист мережевих даних (NetzDG). Це закон, що регулює діяльність великих онлайн-платформ, він спрямований на боротьбу з фейковими новинами, мовою ворожнечі та дезінформацією в онлайн просторі. Федеральне відомство юстиції заявило, що Telegram не створив систему повідомлення про незаконний вміст і не призначив представника в Німеччині, уповноваженого обробляти офіційні запити. Штраф включає 4,25 млн євро за відсутність системи розгляду скарг і 875 000 євро за те, що не було призначено уповноваженого представника. 

Незважаючи на спроби зв’язатися зі штаб-квартирою Telegram у Дубаї та допомогу з боку влади ОАЕ, представники месенджеру не відреагували на законодавчі вимоги Німеччини. 

Водночас, у DSA є такі вимоги. Всі постачальники посередницьких послуг повинні призначити контактну точку для спілкування з користувачами: наприклад, вказати контактний номер телефону на веб-сайті для зв’язку з особою, що уповноважена для комунікації. Такий контактний пункт має бути не лише із зазначеним номером мобільного телефону юридичної особи чи її представника, а й будь-яким іншим зручним способом для користувача, щоб вони мали можливість самостійно обирати спосіб комунікації, наприклад онлайн-чат. Ця контактна інформація має бути легко доступною та регулярно оновлюватися. Постачальники посередницьких послуг, які не мають офісів у Євросоюзі, повинні призначити представника в одній із країн ЄС, котрий забезпечуватиме взаємодію з європейськими регуляторами. Ці представники несуть відповідальність за дотримання всіх вимог DSA та виконання рішень, пов’язаних з регламентом, маючи необхідні повноваження та ресурси для ефективної роботи.

В контексті прийняття DSA, ключове значення має модерація контенту на великих онлайн-платформах. 

Яскравим прикладом DSA в дії є розпочате 18 грудня 2023 року розслідування проти соціальної мережі X (раніше – Twitter). Відповідно до DSA Комісія (про її роль ми розповімо нижче) відкрила офіційне провадження проти X. Під час нього Комісія має оцінити, чи міг X порушити вимоги DSA у таких сферах, як модерація вмісту, управління ризиками, прозорість реклами, темні шаблони (інтерфейс користувача, який вводить його в оману або заплутує під час якоїсь дії) та доступу до даних дослідників. Перед цим Комісія проаналізувала звіт про оцінку ризиків, який подала мережа X у вересні 2023 року, Звіт про прозорість X, що опублікували 3 листопада, і офіційний запит на інформацію, який, зокрема стосувався і поширення незаконного контенту в контексті терористичних нападів Хамасу на Ізраїль. 12 жовтня Комісія надіслала офіційний лист щодо порушення. 

В разі недотримання вимог DSA компанія буде змушена сплатити штраф в розмірі 6% від глобального річного обороту.

Цей випадок ілюструє актуальність впровадження норм DSA в практику функціонування платформ, зокрема X (раніше – Twitter), для ефективної боротьби з дезінформацією та незаконним контентом у цифровому середовищі. 

Це перше розслідування на відповідність вимогам DSA стосовно VLOP. 

Скарги та позасудове вирішення спорів

Постачальники онлайн-платформ мають надавати користувачам можливість подавати скарги на їхні рішення протягом 6 місяців після прийняття такого рішення. Цей період розпочинається з дня, коли користувача проінформували про таке рішення. Користувачі можуть вибрати орган для позасудового вирішення спорів. Платформи повинні забезпечити легкий доступ до інформації про цей процес у своєму онлайн-інтерфейсі. Проте така можливість не впливає на право користувача оскаржувати рішення платформи в суді. 

Контроль 

Головним регуляторним органом для дуже великих онлайн-платформ і дуже великих онлайн-пошукових систем є Комісія. До її повноважень входить:

  1. Визначення того, хто належить до VLOP або VLOSE, та публікування інформацію про це;
  2. Формування методології визначення того, які платформи належать до VLOP або VLOSE;
  3. Нагляд за дотриманням правил DSA VLOP та VLOSE;
  4. Повноваження щодо розслідування щодо VLOP та VLOSE та накладення штрафів;
  5. Нагляд і забезпечення разом з координаторами цифрових послуг вирішення системних проблем, що стосуються VLOP та VLOSE;
  6. Заохочення та сприяння складанню добровільних кодексів поведінки на рівні Європейського Союзу постачальниками онлайн-платформ та іншими постачальниками послуг (стаття 46 DSA);
  7. Забезпечення належного формування кризових протоколів у разі їх розробки.

Складання кризових протоколів є важливою функцією Комісії. Зараз для України як ніколи актуальним є врахування всіх особливостей DSA та контексту, в якому перебуває Україна, а саме у стані війни. Зважаючи на це, необхідно сприяти складанню, формуванню та нагляду за застосуванням кризових протоколів, об’єднуючи сили громадянського суспільства, органів державної влади та Комісії. 

Нагляд за іншими платформами та пошуковими системами мають здійснювати держави-члени, де онлайн-посередники зареєстровані або відкрили представництво. В таких державах має бути призначений Координатор цифрових послуг (далі – Координатор). Це незалежний орган, що спостерігає за онлайн-посередниками, які створені або зареєстровані в державі-члені. Його повноваження відрізняються залежно від типу посередницької служби. Наприклад, лише стосовно онлайн-платформ вони можуть впливати на те, щоб онлайн-інтерфейс не вводив в оману користувачів. До інших повноважень Координатора належать: 

  • дотримання зобовʼязань DSA; 
  • накладення штрафів у випадку порушення DSA;
  • призначення юридичного представника в ЄС для тих інтернет-посередників, в яких його немає;
  • створення та контроль єдиного контактного пункту;
  • розробка для користувачів внутрішньої системи розгляду скарг на рішення онлайн-платформ.

Це далеко не повний перелік функцій, які виконує Координатор на рівні держави. На рівні ЄС Координатори також мають низку важливих функцій. Наприклад, вони можуть здійснювати спільні розслідування з іншими Координаторами, виступати у ролі національного контактного пункту під час співпраці з Комісією, головувати у Європейській Раді з цифрових послуг.

Національні органи, які також відповідають за нагляд за невеликими платформами та пошуковими системами, мають бути створені у державах-членах ЄС до 17 лютого 2024 року. Координатори цифрових послуг можуть допомагати Комісії у визначенні того, який розмір має мати онлайн-платформа, щоб її можна було ідентифікувати як VLOP або VLOSE.

Штрафи 

Кожна держава-член повинна визначити у своїх національних законах покарання онлайн-посередникам, які порушують вимоги DSA, та призначити координатора цифрових послуг. Максимальна сума штрафу, яка може бути накладена за порушення DSA, може сягати до 6% річного світового обороту онлайн-посередника у попередньому фінансовому році (стаття 52 DSA).

Максимальна сума штрафу складає 1% за надання Координатору:

  • неправильної, неповної або оманливої інформації;
  • ненадання відповіді чи невжиття заходів для виправлення неправдивої інформації;
  • нездійснення дій для проходження перевірки.

DSA і Україна: наступні кроки

Імплементація DSA в Україні підвищить цифрову безпеку, оскільки він встановлює чіткіші правила для боротьби з незаконним контентом. Цей фактор став особливо важливим під час війни в Україні, коли українські користувачі щодня стають цілями для цілеспрямованих атак дезінформацією, фейками та фішингом. Якщо такі атаки успішні, вони завдають шкоди країні і суспільству. 

Натомість DSA допоможе захистити громадян від неправдивої інформації, яка може призвести до паніки або неправильного сприйняття воєнної ситуації. Наприклад, якщо розповсюджується фейкова інформація про воєнні дії, DSA вимагатиме від онлайн-платформ швидко реагувати на такий контент, перевіряючи його та при необхідності видаляти. 

Впровадження DSA може стати важливим інструментом для захисту персональних даних громадян – адже у документі є більш строгі вимоги. Він забезпечує доступ користувачів до інформації про те, як їхні дані використовуються, а тому користувачі матимуть більше контролю над власною цифровою інформацією. Для України це питання є дуже важливим, оскільки персональні даних українців є тим, що може бути використано для шкідливих цілей країни-агресора, особливо під час кібератак та гібридної війни. 

Імплементація DSA зміцнить позиції України на шляху до євроінтеграції, оскільки для повноцінного членства в ЄС Україна має імплементувати всі акти Євросоюзу. Наразі в Україні відбувається переговорний процес з Європейським Союзом щодо DSA та доопрацювання закону. Це – важливий факт, оскільки такі переговори вказують на прагнення країни до цифрової безпеки та прозорості та готовність виконувати вимоги ЄС. 

Для повноцінного виконання всіх вимог DSA Україні варто продовжувати процес переговорів з Європейським Союзом та формування закону. У свою чергу, онлайн-платформам необхідно ретельно переглянути свої поточні практики та внести зміни, щоб вони відповідали вимогам DSA, особливо у сферах модерації контенту та захисту персональних даних. 

Наприклад, платформи можуть розпочати розробку більш строгих алгоритмів для виявлення та видалення незаконного чи шкідливого контенту, а також поліпшити свої політики щодо збору та використання персональних даних користувачів. Це не тільки забезпечить дотримання вимог DSA, але й підвищить довіру користувачів до платформи.

Для багатьох користувачів, які не звикли цікавитись нововведеннями законодавства, запровадження нових правил користування платформами може залишитись чимось невідомим. Саме тому важливо, щоб держава та організації громадянського суспільства поширювали інформацію про нові можливості боротьби зі шкідливим контентом та захисту своїх персональних даних, які надає DSA. 

Висновки

Нові правила, визначені DSA, покликані створити безпечне онлайн-середовище, зменшити масштаби незаконної діяльності та підвищити стандарти безпеки для користувачів. Одна з ключових переваг для споживачів – покращення якості послуг. Реклама на онлайн-платформах тепер буде прозорішою та безпечнішою для користувачів. Чітке позначення рекламного контенту, ідентифікація рекламодавця та відомості про критерії поширення реклами допомагатимуть користувачам краще розуміти, з яким контентом вони взаємодіють. Зокрема, заборона таргетингу неповнолітніх та використання особливих категорій персональних даних для таргетованої реклами зробить онлайн-середовище захищенішим. Ці заходи мають забезпечити чесність рекламних практик та запобігання поширенню незаконного вмісту на платформах. 

Акт DSA вводить чіткіші правила для онлайн-платформ щодо ідентифікації рекламного контенту, захисту особистих даних та прозорості рекламних практик. Також акт покликаний боротися з незаконним вмістом та забезпечує користувачам нові права та можливості для контролю над тим, як їхні дані використовуються платформами. Ці нововведення мають позитивно вплинути на якість онлайн-послуг та забезпечити відповідальну поведінку платформ. 

Враховуючи те, що Україна є кандидатом у члени ЄС і готується почати перемовини про вступ, нам вже зараз потрібно готуватись до впровадження DSA. Перш за все – визначитися із кроками, що необхідні для імплементації вимог DSA. В контексті цього та загального аналізу DSA ми рекомендуємо:

Державі:

  • Продовжувати здійснювати активні кроки для становлення законодавчої бази та, як результат, ухвалити національне законодавство, що відображає ключові положення DSA.
  • Розпочати роботу над встановленням процесів для моніторингу дотримання вимог DSA і забезпечення регулярної звітності, сприяти формуванню кодексів поведінки та кризових протоколів.
  • Визначитись з кандидатурами для Координатора цифрових послуг. 

Платформам:

  • Уже зараз розпочинати процеси аналізу та впровадження вимог DSA, особливо щодо модерації контенту та захисту даних.

Організаціям громадянського суспільства: 

  • Передбачити можливості для моніторингу реалізації норм та механізмів, закріплених у DSA, а також оцінки досягнення визначених DSA цілей.

Користувачам

  • Детально ознайомитись з нововведеннями та за необхідності боротись з поширенням незаконного контенту за допомогою інструментів, передбачених DSA.