Реформа управління контентом у соцмережах (Частина 1): як Наглядова рада впливає на політику Facebook та Instagram

November 29, 2023

За останні кілька років один і той же орган вирішував, чи може Президент США користуватися Facebook для спілкування зі своєю 35-мільйонною аудиторією, що робити з метафоричними заявами проти Президента Перу та як реагувати на критику правоохоронних органів Індонезії чи погрози прем’єр-міністра Камбоджі. Ця ж установа виносила рішення, які торкалися суперечливих суспільно-важливих питань: від мемів з політичним підтекстом, антиурядових протестів і насильства за гендерною ознакою до місінформації про COVID-19, конфлікту між Азербайджаном і Вірменією і російського вторгнення в Україну.

Назва цієї установи – Наглядова рада Meta (раніше – Наглядова рада Facebook, поки назву компанії не змінили на Meta у 2021 р.).

Наглядова рада (Рада) – незалежний орган, який створила компанія Meta (тоді ще називалася Facebook) у 2018-2020 роках для розгляду скарг користувачів і перевірки рішень компанії щодо модерації контенту на платформах Facebook та Instagram. Цей орган розглядає складні питання, на які немає однозначної відповіді (приклади ви бачили вище), і допомагає визначати: який допис треба видаляти, який – не треба, і чому так має бути.

З огляду на унікальну специфіку цього органу, аналогу якому поки немає в інших соцмереж, доцільно визначити особливості, роль та ефективність Наглядової ради у процесі управління контентом Meta. На цьому й зосередимося в аналітиці Центру демократії та верховенства права.

Аналітика поділяється на дві частини. У цій (першій) частині розповімо про передумови, процес створення й особливості функціонування Наглядової ради в інституційній архітектурі Meta. Наступна (друга) частина аналітики висвітлить, як саме Наглядова рада приймає рішення, а також оцінить ефективність її діяльності.

Події, що передували створенню незалежного наглядового органу

“Уявіть собі певну структуру, що нагадує Верховний Суд і складається з незалежних осіб, які не працюють на Facebook та приймають остаточні рішення щодо прийнятних висловлювань [у Facebook] на підставі соціальних норм і цінностей людей з усього світу,” – так співзасновник, президент і виконавчий директор Meta Марк Цукерберг у квітні 2018 року вперше заговорив про створення незалежного органу для розгляду апеляцій на видалення контенту.

Що мотивувало приватну компанію створити окрему незалежну структуру для прийняття рішень по контенту, якщо це можна було і далі робити всередині самої компанії? Цій заяві Цукерберга передував ряд скандалів, пов’язаних з модерацією контенту і безпекою користувачів Facebook та Instagram. А ще – шквал критики від медіа, громадянського суспільства, урядів і міжнародних організацій.

Так, у 2016 році розгорівся скандал навколо фотографії “Жахіття війни” (також відома як “Дівчинка з напалмом”), яку Facebook видалив за порушення стандартів спільноти. Цю світлину зробив кореспондент Нік Ут у 1972 році під час війни у В’єтнамі. На ній зображені діти, які тікають від атаки напалмовими бомбами. Серед них видно оголену дев’ятирічну дівчинку Кім Фук, яка біжить і кричить від болю, скинувши з себе обгорілий одяг. Це фото є історичним, адже показує жахіття війни у В’єтнамі. За нього Нік Ут отримав Пулітцерівську премію, одну з найпрестижніших нагород для журналістів.

Та коли відомий норвезький письменник Том Еґеланн поширив це історичне фото на своїй Facebook-сторінці, соцмережа видалила його за зображення оголеного тіла. Цей крок набув широкого розголосу й спричинив шквал обурення – спочатку в Норвегії, а згодом і в інших країнах. Пильна увага медіа та тиск громадськості спонукали Facebook переглянути рішення. Зрештою, соцмережа відновила фото “Жахіття війни”. За словами представників Facebook, ці події спонукали компанію внести зміни до стандартів спільноти, зокрема переглянути свій підхід до модерації суспільно значущих зображень, які за інших умов могли б порушувати правила Facebook.

2016 рік також запам’ятався скандалом через зовнішнє втручання у президентські вибори в США та Brexit – зокрема за допомогою соцмереж. Так, є підстави вважати, що пов’язані з Росією угруповання використовували Facebook та Instagram, аби вплинути на перебіг та результат виборів у США. Вони створювали фейкові акаунти, придумували підроблені ідентичності й видавали себе за американців, щоб поширювати суперечливу рекламу, контроверсійний контент і дезінформацію – і таким чином сіяти розбрат серед американських виборців.

Так само експерти відзначали і вплив дезінформації в соцмережах на процес виходу Великої Британії з Європейського Союзу (Brexit).  Тут теж не обійшлося без російського сліду – у багатьох Facebook-групах, які виступали за вихід Великої Британії з ЄС, поширювалися проросійські наративи та дезінформація. Неправдиву інформацію поширювали й у групах, що підтримували членство країни у ЄС, але її кількість була помітно меншою.

У 2018 році вибухнув скандал з Cambridge Analytica. Це – британська консалтингова компанія, яка спеціалізувалася на аналізі даних для політичних кампаній. Скандал виник через публікацію інформації про те, як компанія неправомірно збирала та використовувала особисті дані понад 87 мільйонів користувачів Facebook без їхньої належної згоди. Завдяки їм Cambridge Analytica створювала психометричні профілі виборців та впливала на їхні політичні переконання. Це обурило громадськість і викликало широку дискусію про прозорість та етику використання особистих даних у політиці соцмереж. Facebook став об’єктом критики за недостатнє забезпечення конфіденційності даних користувачів.

Недосконалість політик Facebook також значно сприяла поширенню закликів до геноциду та мови ненависті у М’янмі. Незалежна міжнародна місія з встановлення фактів щодо подій у М’янмі відзначила особливу роль Facebook як платформи для поширення мови ворожнечі й підбурювання до насильства. Слідчі ООН також заявили, що Facebook “перетворився на звіра”, адже його використання відіграло “вирішальну роль” у розпалюванні ненависті проти мусульман-рогінджа в М’янмі. Це завдало суттєвих репутаційних збитків компанії.

Зародження ідеї й процес становлення Наглядової ради

Масштаб проблем з модерацією контенту і обурення громадськості викликали нову хвилю тиску на соцмережі. Наприклад, у період з 2017 по 2019 рік Сенат США провів п’ять слухань щодо використання цифрових технологій та їхнього впливу на свободу слова, вибори та конфіденційність. Марк Цукерберг виступав перед Сенатом після скандалу з Cambridge Analytica, а головна операційна директорка Meta Шеріл Сендберґ доповідала про зовнішнє втручання у вибори президента США у 2016 році через соціальні мережі.

Після низки скандалів Марк Цукерберг влаштував кілька зустрічей для різних груп науковців і правозахисників, аби обговорити: що Facebook може зробити для покращення модерації контенту і підвищення легітимності процесів компанії в очах громадськості. Ці зустрічі стали початком консультацій про вдосконалення модерації контенту та підвищення безпеки у соцмережах.

Однією з ініціатив стало налагодження незалежного зовнішнього процесу розгляду апеляцій (для цього мав з’явитися спеціальний неупереджений орган). Ідею приписують професору Гарвардської школи права Ноа Фельдману. Підтримуючи тісні зв’язки з головною операційною директоркою Meta Шеріл Сендберґ, професор Фельдман у січні 2018 році написав короткий текст, в якому виклав основні деталі для створення “Верховного суду Facebook” та описав переваги – як для самого Facebook, так і для користувачів. Тож Фельдман надіслав текст пропозиції Сендберґ, яка передала його Цукербергу.

Марк Цукерберг позитивно оцінив цю ідею і вже у листопаді 2018 представив власну “Стратегію для управління та імплементації стандартів щодо контенту”, в якій підтримав тезу, що компанія не повинна самостійно приймати так багато важливих рішень про свободу вираження поглядів та безпеки в соцмережах. Він офіційно анонсував план створення незалежного органу для оскарження рішень щодо контенту до кінця 2019 року.

Через кілька місяців віце-президент Meta із глобальних політик Нік Клегг опублікував проект Хартії з деталями щодо потенційного обсягу повноважень, особливостей роботи та етапів створення незалежної Наглядової ради. Далі Meta запустила процес глобальних консультацій, аби обговорити з зацікавленими сторонами по всьому світу, який вигляд повинна мати Рада та якими питаннями займатися. Для цього Meta організувала низку воркшопів з багатьма експертами й організаціями, які працюють над питаннями свободи слова, цифрових технологій і прав людини. До цих обговорень долучилися й фахівці ЦЕДЕМ.

За результатами консультацій зі стейкхолдерами вийшли звіт і додаток, в яких були представлені ідеї щодо формування та роботи майбутнього незалежного органу для розгляду апеляцій. Деякі з цих ідей бути використані для створення Наглядової ради. Вже у вересні 2019 року Meta опублікувала оновлену версію Хартії Наглядової ради, а перших її членів представили у травні 2020 року. Крім того, для фінансування роботи Ради Meta створила спеціальний окремий Траст.

Загальна характеристика

Мета. Метою роботи Наглядової ради є захист свободи вираження поглядів шляхом прийняття обґрунтованих, незалежних рішень щодо найважливіших і найсуперечливіших випадків блокування контенту Facebook та Instagram, а також розробки рекомендацій щодо модерації контенту на платформах Meta. Склад, повноваження та межі діяльності Наглядової ради закріплені в Хартії Наглядової ради.

Склад. Наглядова рада повинна складатися не менше ніж з 11, але не більше ніж із 40 членів. Розмір складу може варіюватися (збільшуватися або зменшуватися), як того вимагатиме ситуація. Цікаво, що у квітні 2023 року сама Рада оголосила, що попри максимальний ліміт у 40 осіб наразі оптимальною кількістю є 26 осіб. Станом на початок листопаду 2023 року, учасниками Наглядової ради є 22 особи.

Кваліфікація. Члени Наглядової ради повинні мати та демонструвати широкий спектр знань, компетентностей, різноманітності та експертизи. У них має бути досвід ґрунтовного аналізу складних питань; вміння працювати в команді; вправність у прийнятті та поясненні рішень на основі набору політик чи стандартів; обізнаність в питаннях управління контентом і пов’язаних з цим процесом аспектів, як-от свобода слова, безпека, конфіденційність  та цифрові технології.

Термін посади. Термін роботи в Наглядовій раді становить 3 роки. Кожен член Ради може входити до її складу протягом щонайбільше трьох термінів (9 років). Нових членів Ради призначають не всіх одночасно, а почергово протягом трьох років. Це робиться для того, щоб забезпечити послідовність і неперервність діяльності Наглядової ради: коли в одних членів Ради буде закінчуватися період перебування на посаді, інші (яких пізніше призначили) продовжуватимуть працювати в звичному режимі.

Повноваження. Наглядова рада має чітко визначене коло повноважень, які стосуються справ, взятих до розгляду. Так, Рада може:

  1. Вимагати, щоб Meta своєчасно й розгорнуто надавала інформацію про свою позицію щодо обмеження контенту у Facebook та Instagram, щоб Рада могла прийняти рішення щодо правомірності такого обмеження.
  2. Тлумачити Стандарти спільноти Facebook та інші політики компанії щодо управління контентом крізь призму цінностей Meta.
  3. Вказувати Meta, що треба зробити з контентом – видалити чи залишити його на платформі. Наразі Наглядова рада веде переговори з Meta щодо розширення своїх повноважень, аби розглядати справи не лише щодо контенту, але й щодо акаунтів та груп у соцмережах.
  4. Підтримувати або змінювати класифікацію контенту, яка призводить до того чи іншого обмеження. Наприклад, у деяких випадках контент зі сценами насильства може бути дозволений на платформі, якщо Рада класифікує його як такий, що має суспільно важливе значення. Але тоді до нього може додаватися екран попередження, а деякі кадри блюряться.
  5. Надавати оперативні письмові пояснення своїх рішень.

Крім того, Наглядова рада може розробляти рекомендації, які стосуються конкретної справи на розгляді Ради, політики Meta щодо контенту або спеціального запиту від Meta. Рекомендації Наглядової ради не є обов’язковими для Meta, однак компанія зобов’язується розглядати доцільність їх запровадження і повідомляти про статус виконання рекомендацій. Для цього Meta публікує відповідні щоквартальні звіти. Зі свого боку, Рада також уповноважена моніторити процес запровадження рішень і рекомендацій Meta й публікувати результати у щорічному та щоквартальному звіті.

Обов’язки. Члени Наглядової ради Meta зобов’язані:

  1. Виконувати обов’язки, визначені у їхніх контрактах та кодексі поведінки, аби забезпечити незалежність, цілісність, конфіденційність та професійну репутацію Ради. 
  2. Співпрацювати з іншими членами Ради під час прийняття рішень, сприяти атмосфері колегіальності та виносити обґрунтовані рішення і рекомендації щодо політики Meta.
  3. Сприяти становленню Ради як інституції, що втілює та розвиває свободу вираження поглядів.
  4. Захищати конфіденційність людей, які користуються послугами Meta, та публічно не розголошувати конфіденційну чи приватну інформацію про користувачів чи Meta.

Розгляд справ. Під кожну справу формується спеціальна панель з 5 членів Наглядової ради, до якої входить принаймні один представник із регіону, якого стосується кейс. При прийнятті рішення учасники панелі повинні намагатися досягти консенсусу. Якщо ж він неможливий, рішення приймається більшістю голосів, а застереження меншості можуть бути включені у текст рішення.

Спеціальні процедури. За деяких умов, Наглядова рада може вдаватися до спеціальних процедур при розгляді кейсів:

  1. Повторний розгляд справи. Перш ніж рішення панелі стає публічним, його розсилають всім членам Наглядової ради. Якщо більшість Ради вимагає повторного розгляду рішення панелі, буде створено нову панель для проведення повторного прискореного розгляду справи.
  2. Прискорений розгляд. За деяких виняткових умов, наприклад, коли контент може призвести до невідкладних наслідків, Meta може скерувати до Ради запит з проханням розглянути рішення компанії щодо контенту в порядку прискореного розгляду.
  3. Запит на отримання рекомендації. Meta може у будь-який час подати запит на отримання рекомендації від Наглядової ради. Залежно від типу запиту, Рада може надавати таку рекомендацію, аби уточнити деталі свого попереднього рішення або ж порадити кроки для покращення політики модерації контенту Meta. Всі рекомендації є консультативними і не мають обов’язкового характеру.

Трикутник взаємодії: Meta – Траст – Наглядова рада

Щоб краще зрозуміти роль Наглядової ради у нормативній архітектурі Мета, слід визначити середовище, в якому Рада функціонує. У ньому є три установи, які взаємодіють між собою: сама Наглядова рада, Meta (компанія) і Траст (створений для підтримання діяльності Наглядової ради). Зараз коротко розглянемо взаємодію між кожною з цих установ.

Відносини між Трастом і Meta. Аби забезпечити фінансування Наглядової ради, Meta створила незалежний Траст, призначила членів його правління і зобов’язалася його фінансувати. Компанія спершу заклала 130 мільйонів доларів у Траст, а у 2022 році виділила додаткові 150 мільйонів доларів.  Траст отримує фінансування від Meta, аби підтримувати діяльність Наглядової ради, про що розповідаємо далі.

Відносини між Наглядовою радою і Трастом. Траст покликаний забезпечити фінансову незалежність Наглядової ради шляхом затвердження бюджету Ради, рівня заробітної плати її членів, адміністративних витрат тощо. Тож основне завдання Трасту можна описати як створення сприятливих умов для Наглядової ради, щоб та вдало справлялася зі своєю роботою і досягла поставлених цілей.

Крім того, члени правління Трасту формально призначають членів Наглядової ради, але це відбувається за пропозицією кандидатур самою Радою. Траст також має повноваження відсторонити членів Наглядової ради, якщо вони порушили Кодекс поведінки Наглядової ради – це є єдиною можливою причиною відсторонення члена Наглядової ради. Однак рішення щодо прийнятності чи неприйнятності певного контенту не можуть слугувати підставою для припинення повноважень члена Ради.

Відносини між Наглядовою радою і Meta. Наглядова рада вибирає і розглядає справи щодо контенту, видаленого у Facebook чи Instagram (модерація контенту у WhatsApp, Messenger, Instagram Direct, і Oculus виходить за межі компетенції Ради), та виносить обгрунтовані публічні рішення. Рада також може надавати поради щодо вдосконалення політик Meta та рекомендації щодо модерування контенту. 

Крім того, Meta може з власної ініціативи передавати справи до Наглядової ради на перевірку або просити рекомендації. Компанія добровільно зобов’язується виконувати рішення Наглядової ради щодо видалення чи відновлення контенту. Ба більше, Meta обіцяє дотримуватися рішення не лише у конкретно взятому кейсі, але й в інших ідентичних ситуаціях (за умови, що це технічно можливо зробити). Компанія також розглядає кожну рекомендацію Наглядової ради – хоча рекомендації, на відміну від рішень щодо контенту, не є обов’язковими до впровадження.

При розгляді справи у Наглядовій раді, Meta обіцяє надавати необхідну інформацію щодо своєї позиції і застосування стандартів спільноти, якщо це доцільно і можливо з технічної та юридичної точки зору, а також не порушує умов конфіденційності, безпеки та захисту даних. На практиці Meta справді часто надає інформацію щодо своєї позиції і застосованих нею стандартів спільноти, іноді навіть ділиться певними положеннями внутрішніх стандартів спільноти, доступ до яких мають лише модератори Meta (так звані “Known Questions” and Internal Implementation Standards).

Однак траплялися випадки, коли Meta надавала нечітку відповідь або ж відмовлялася надавати певну інформацію взагалі. Таку позицію Meta можна пояснити питаннями охорони комерційного інтересу компанії і захисту алгоритмів від потенційних зловживань. Це стосувалося, серед іншого, деяких питань щодо дизайну й функціонування алгоритмів штучного інтелекту, зокрема у контексті поширюваності й охоплення дописів у стрічці новин Facebook. 

Інший приклад – справа, в якій Meta не бачила доцільності у тому, щоб надати дані про помилки у прийнятті рішень про контент, яких допускають модератори та автоматизовані системи. Також був випадок, коли Facebook відмовився уточнити, хто саме видалив контент: модератори чи автоматизовані системи. Компанія зазначила, що Наглядовій раді слід фокусуватися не на методі прийняття рішення (модератор чи автоматизовані системи), а на результатах (видалено контент чи ні).

Більш докладну інформацію про взаємодію Наглядової ради з Meta і Трастом можна знайти у Статуті Наглядової ради.

Як подати апеляцію до Наглядової ради?

Якщо ви незгодні з рішенням Meta щодо обмеження контенту у Facebook або Instagram, ви можете оскаржити це рішення штатними засобами Facebook та Instagram, подавши запит на перевірку початкового рішення Meta до модераторів соцмереж. Якщо ваш запит переглянули двічі, але не задовольнили його, тоді можна оскаржити рішення Meta до Наглядової ради.

Процедура подачі скарги до Наглядової ради влаштована таким чином:

  1. Напишіть апеляцію для Ради за посиланням https://www.oversightboard.com/submit/. Вам слід буде пояснити, чому Facebook або Instagram помилилися з рішенням.
  2. Зачекайте кілька тижнів, поки Рада вибиратиме справи для розгляду. Слід наголосити, що Рада отримує тисячі апеляцій на тиждень і вибирає лише невелику кількість на місяць. Як правило, Наглядова рада фокусує свою увагу лише на кількох найважливіших справах, які можуть мати велике значення для подальшого розвитку і реалізації політик Meta. 
  3. Якщо Рада таки візьметься за вашу справу, треба просто дочекатися рішення. У своєму рішенні Наглядова рада підтримує або скасовує обмеження контенту Meta, надаючи публічно доступне письмове пояснення на сайті: https://www.oversightboard.com/decision/

Є дві категорії контенту, який ви можете оскаржити до Наглядової ради: 

  • Контент, який ви опублікували у Facebook або Instagram, але соцмережах його видалила.
  • Контент, який був опублікований у Facebook чи Instagram іншим користувачем, але після вашої скарги модераторам Meta оскаржуваний контент залишили на платформі.

Скарги можуть стосуватися текстових дописів, зображень, відео чи коментарів.

Висновки

Видалення фотографії “Дівчинка з напалмом” у Facebook, використання Facebook та Instagram для втручання у президентські вибори в США і впливу на процес виходу Великої Британії з ЄС, неправомірне збирання особистих даних користувачів Facebook консалтинговою компанією Cambridge Analytica – ці та інші скандали спонукали Meta (раніше компанія називалася Facebook) шукати шляхи вдосконалення процесу управління контентом у соцмережах. На тлі цих скандалів зародилася ідея створення спеціального наглядового органу, який зробив би управління контентом більш прозорим і підзвітним. Так Meta створила Наглядову раду.

Наглядова рада – незалежний орган для розгляду апеляцій на видалення контенту у Facebook та Instagram, створений Meta у 2018-2020 роках. Для забезпечення незалежності Наглядової ради було створено спеціальний незалежний Траст, який фінансує Meta.

Апеляцію до Ради може подати будь-який користувач платформи, який вичерпав внутрішні можливості оскаржити контент модераторам Facebook та Instagram. Далі Наглядова рада приймає рішення, в якому вказує і пояснює, чому той чи інший контент треба видалити або залишити. Крім того, Рада розробляє рекомендації щодо покращення правил і процесу управління контентом у Facebook та Instagram. Meta добровільно зобов’язується виконувати всі рішення Наглядової ради щодо контенту, а також розглядати доцільність запровадження рекомендацій Ради.

Щоб краще зрозуміти вагу і вплив Наглядової ради на управління контентом у Facebook та Instagram, потрібно додатково оцінити ефективність рішень і рекомендацій Ради за три роки її діяльності. Цим ми займемося у другій частині аналітики.