24 березня 2023 року відбулась додаткова подія “Штучний інтелект і організації громадянського суспільства”, яка пройшла в рамках щорічного форуму “Штучний інтелект 2.0: регулювання та робота під час війни”. Це була експертна дискусія, організована в межах проєкту “Ініціатива секторальної підтримки громадянського суспільства України”, що реалізується ІСАР Єднання у консорціумі з Українським незалежним центром політичних досліджень (УНЦПД) та Центром демократії та верховенства права (ЦЕДЕМ) завдяки щирій підтримці американського народу, наданій через Агентство США з міжнародного розвитку та фінансовій підтримці Швеції.
Захід зібрав зібрав юристів, міжнародних експертів, представників бізнесу та лідерів громадянського суспільства, щоб поговорити про вплив штучного інтелекту (ШІ) на розвиток громадянського суспільства.
Відеотрансляцію події дивіться за посиланням
Основними темами для обговорення стали:
- Захист репутації лідерів ОГС на тлі діпфейків та шеллоуфейків і право на відповідь;
- Міжнародний та український підходи до законодавчого регулювання використання камер відеоспостереження;
- Штучний інтелект для ОГС у взаємодії з партнерами;
- Особливості регулювання авторського права на об’єкти, створені чатом GPT в контексті виконання проєктів, які фінансують донори та інші питання.
Майбутнє вже настало, адже інструменти штучного інтелекту вже стали нашою реальністю. Звісно, експерти нагадують, що справжнього штучного інтелекту слід чекати орієнтовно 30 років. На теперішньому рівні еволюції ШІ не може існувати без участі людини, яка “затверджуватиме” його результати.
Не виникає жодних сумнівів, що слід використовувати ШІ у роботі громадських організацій. А прямо зараз слід вчитися відповідально і раціонально користуватися інструментами ШІ та формувати бачення того, яким буде майбутнє суспільства, зокрема, і громадянського, з бурхливим розвитком та збільшенням розмаїття технологій. Snapchat, діпфейки, шелоуфейки, цифровий фандрейзинг, формування контенту, цифрові камери відеоспостереження з функцією розпізнавання обличчя – це тільки верхівка айсбергу інструментів штучного інтелекту, які можуть вплинути на роботу громадського сектору.
Для ОГС важливо вчасно розпізнати можливості й інтегрувати їх в свою операційну діяльність, визначити потенційні загрози та виробити механізм запобігання. А ще важливіше – продумати, яким має бути законодавство, котре все це регулюватиме, і зробити його дружнім для ОГС.
Тож дискусія під час заходу велася навколо того, як дати можливість організаціям громадянського суспільства вчасно зорієнтуватися, аби спростити своє життя за допомогою ШІ або ж посилити свою цифрову стійкість.
“Штучний інтелект – це і про можливості, і про ризики для організацій громадянського суспільства України. Також важливо підняти питання про правове регулювання: яке воно є сьогодні, яке воно має бути вже завтра”, – Олеся Холопік, директорка ЦЕДЕМ.
“Без технологій штучного інтелекту ми вже не зможемо жити, нам потрібно тільки шукати, як правильно з ними жити”, – Марія Гелетій, заступниця виконавчого директора Ісар Єднання.
“Виклики розвиваються не один рік, і дійсно потрібно подумати, де межа етична, де межа юридична. Ще кілька років тому ШІ в законодавчих актах не був присутній, але ситуація починає змінюватися”, – Ігор Розкладай, головний медійний юрист, заступник директорки ЦЕДЕМ.
Ігор приділив увагу основним нормативним актам, які тією чи іншою мірою регулюють застосування ШІ. Так, Мінцифри затвердило певну стратегію, є нова редакція ЗУ “Про авторське право та суміжні права”. Однак експерт наголошує: поки що суспільство навіть не уявляє масштабів впливу ШІ на приватність, зокрема коли правоохоронні органи застосовують камери з функцією розпізнавання обличчя (наприклад, під час мирних зібрань та протестів). Адже далі можливі потенційні зловживання з персональними даними з боку правоохоронців.
Більш предметно експерт проаналізував діп та шеллоу фейки, і розібрав кейси позитивного та негативного використання цих технологій.
Тож, хоча такі фейки можуть зруйнувати (чи створити) репутацію політиків, публічних людей, громадських діячів, вони також мають величезне значення для мистецьких та креативних індустрій.
Що стосується поширення діп- та шеллоу фейків, які завдають шкоди репутації, то єдиним наразі ефективним засобом боротьби з наслідками стане адекватне реагування в режимі кризової комунікації. Адже право на відповідь чи судовий захист в класичному розумінні не може бути реалізоване: немає ніяких гарантій, що інформація зі спростуванням фейку побачить та сама аудиторія, що побачила фейк.
Пошук юридичних рішень слід продовжувати. Зокрема, належить встановити законодавчі бар’єри для профайлінгу, котрий порушує права людини. Для цього потрібні законодавчі зміни у сфері захисту персональних даних а також регулювання для пристроїв, які розпізнають обличчя. Експерт радить слухачам зміцнювати культуру використання персональних даних.
Франческа Фануччі, головна юридична радниця ECNL говорила про правові та політичні стандарти використання камер з компонентом ШІ (Ради Єропи, ОБСЄ/БДІПЛ, ЄС, проект Регламенту про штучний інтелект), а також про відступ від загальних норм під час воєнного та надзвичайного станів.
Експертка грунтовно пояснила, як працює технологія розпізнавання обличчя (що включає ідентифікацію, верифікацію та класифікацію) – в режимі реального часу та ретроспективно.
За її словами, основними ризиками стають “хибнопозитивні помилки” (система “знаходить” не ту людину), отримані дані можуть використати з іншими цілями або розглядати їх упереджено.
Крім того, системи розпізнавання обличчя здатні демотивувати людей, які уникатимуть публічних заходів, аби про них не збирали інформацію.
З правового погляду головними ризиками конкретно камер відеоспостереження, які розпізнають обличчя є: порушення права на приватність, на захист даних, свободи слова, висловлення поглядів та мирних зібрань, на відсутність дискримінації, право на гідність, право на прийняття рішення людиною, право на оскарження/доступ до ефективного засобу правового захисту.
Експертка розповіла про конкретні судові рішення у справах щодо захисту прав людини, які виникали, коли уряд або місцева влада зловживали технологіями ШІ.
Тетяна Авдєєва, юристка Лабораторії цифрової безпеки говорила про ті виклики і можливості, які стоять перед громадським сектором в умовах війни. Серед них – використання камер для ідентифікації воєнних злочинців та пропорційність використання таких камер.
Вона доводить: навіть в умовах війни потрібні мінімальні стандарти у законодавчому полі. Вони допоможуть запобігти зловживанням та порушенням прав людини. Особливо актуальними в цей час стають мінімальні технічні стандарти – аби захистити такі системи відеоспостереження від хакерських атак та “зливання” даних ворогу.
За словами експертки, національного законодавства, яке регулює ці питання, просто-напросто немає. Виняток – Концепція розвитку штучного інтелекту, в якій про права людини згадується 3 чи 4 рази. “Відповідно, ані технічних стандартів технологій ШІ, які впливають на права людини, ані юридичних запобіжників наразі не існує, і більше того, не існує жорсткого обов’язкового регулювання”.
Експертка згадала про дані аналітичного дослідження, яке раніше провів ЦЕДЕМ щодо законності використання камер CCTV. Тож ОГС повинні вже зараз працювати, аби виключити ці ризики і запровадити відповідне законодавство та процедури.
Вероніка Бойко, керівниця соціального напрямку YouControl, експертка Асоціації відкритих даних, аналізувала можливості використання ШІ в роботі ОВС. Вона пояснила, чому YouControl наразі вважає неможливим використання елементів ШІ для належної і коректної перевірки контрагентів, визначивши ключові фактори “неготовності” ШІ.
Далі, експертка поділилася практичними порадами стосовно застосування інструментів штучного інтелекту (мова йшла про генерування контенту) для покращення комунікації з партнерами і контрагентами. Згідно з внутрішнім опитуванням, 20% цієї айтішної компанії користуються інструментами ШІ (зокрема, для рекрутингу, написання грантових заявок, у підготовці контенту, при організації івентів, написанні коду, створенні стратегій продуктів, комунікації з партнерами, в комерції та юриспруденції), тож деякими лайфгаками експертка поділилась під час дискусії.
Крім того, спікерка розповіла про перелік інструментів, які члени її команди використовували або тестували, і визначила 6 основних методи застосування ШІ, які виявились ефективними для них, а саме: підготовка контенту статей, презентацій, публікацій, листування з партнерами, формування заявок, таблиць, чек-лістів, кодування елементарних функцій, пошук нових ідей.
Ольга Петрів, юристка ЦЕДЕМ говорила про те, як ШІ пришвидшує пошук інформації про різні нормативно-правові акти та як він може пришвидшити процес розробки законодавства.
Отож, на що варто звернути увагу під час генерування творів ШІ для реалізації донорських проєктів: потрібно уникати проблем з плагіатом, захистити авторські права та суміжні права на контент. Зокрема через різноманітне програмне забезпечення, яке накладає водяні знаки на візуальні матеріали, перешкоджаючи ШІ використовувати ці твори для навчання.
Експертка налогосила, що не всі матеріали захищені від ШІ, тому в усіх випадках людині слід перевіряти, на основі чого та з використанням яких джерел ШІ створював той чи інший продукт. Експертка також прокоментувала мораторій на ChatGPT, який прямо зараз розділив людей на два табори.
Підсумовуючи, варто відзначити, що найстрашнішого ще не сталося – ШІ не здатен наразі замінити людину, адже його продукти потребують ретельної перевірки на достовірність і коректність.
Водночас, сектору потрібно дуже уважно поставитися законодавчого врегулювання використання елементів та інструментів ШІ, щоб забезпечити дотримання прав людини, унормувати етичні та процедурні аспекти використання технологій. А ще – захистити персональні дані та критично важливу для демократії і обороноздатності інформацію (незалежно від війн чи криз).
Серед іншого, в межах проєкту “Ініціатива секторальної підтримки громадянського суспільства України” ЦЕДЕМ готує інформаційні матеріали, щоб посилити обізнаність сектору про ШІ та його потенціал.