23 та 24 березня у Києві пройшов дводенний форум “Штучний інтелект 2.0: регулювання та робота під час війни”. Його організаторами стали Центр демократії та верховенства права та Лабораторія цифрової безпеки. Захід зібрав українських та закордонних експертів, представників влади та міжнародних організацій.
Учасники обговорювали як засадничі питання щодо штучного інтелекту (ШІ), серед яких державне та міжнародне регулювання, так і українські реалії, в яких ця технологія використовується під час війни. Другий день форуму був присвячений погляду на ШІ під новим кутом: впливу штучного інтелекту на громадянське суспільство.
“Рада бачити, що ви зростаєте, що цей форум стає регулярною платформою для обговорення подібних питань, які стосуються технологічного розвитку. Мені здається, що ми всі виграємо від використання цього досвіду у майбутньому”, – наголосила Ольга Сєдова, керівниця національних програм Посольства Швеції в України.
“Наші експерти разом з партнерами досліджують виникнення штучного інтелекту, його застосування, і найактуальніше, оскільки передовсім ми працюємо у юридичній сфері, правове регулювання. – зазначила Олеся Холопік, директорка Центру демократії та верховенства права. – Бажаю всім максимально продуктивних дискусій, де виокремляться питання, котрі потребують максимального дослідження саме зараз, в Україні, в умовах війни”.
Вона також подякувала Лабораторії цифрової безпеки за системну включеність і роботу над цією темою, а також партнерам, які підтримують Центр демократії та верховенства права.
За словами Віти Володовської, голови Лабораторії цифрової безпеки, для більшості людей штучний інтелект – це розважальні додатки, які змінюють обличчя на фото або привід згадати старі фільми на зразок “Термінатора”. “Тому фахівцям дістаються менш цікаві сценарії, але від того не менш важливі. Вдячна колегам за те, що програма форуму є збалансованою і дозволяє подивитися на штучний інтелект та його вплив з різних сторін, тож дискусія буде захопливою”, – підсумувала вона.
“Ситуація зараз дуже сумна, адже до Європи повернулася війна. І ця війна ведеться не лише конвенційною зброєю, війна росії проти України є гібридною. У ній використовуються різноманітні засоби, такі як спотворення фактів та різні пропагандистські методи. Для захисту прав людини нам потрібно використовувати штучний інтелект, щоб полегшити доступ до достовірної інформації для суспільства та запобігати дезінформації”, – наголосила Тереза Рібейро, Представник ОБСЄ з питань свободи медіа.
Відеотрансляцію першого дня форуму дивіться за посиланням
У перший день форуму відбулося чотири сесії. Перша з них була присвячена Artificial Intelligence Act, законопроєкту ЄС щодо штучного інтелекту. Учасники обговорювали перспективи ухвалення цього документу в Євросоюзі та його втілення в ЄС та державах, котрі ще не входять до євроспільноти. Йшлося також про найсуперечливіші питання законопроєкту з погляду правового регулювання та технічних стандартів. Модераторкою виступила Тетяна Авдєєва, юристка Лабораторії цифрової безпеки.
Кароліна Іванська, радник з цифрового права European Center for Not-for-Profit Law, виклала коротку позицію організації щодо закону та очікування, коли його ухвалять. Вона звернула увагу на питання юрисдикції (як це вплине на країни, які не входять до ЄС) та основні проблеми з точки зору прав людини. Серед них – надто широкі винятки.
Гордій Румянцев, державний експерт Директорату європейської та євроатлантичної інтеграції Міністерства цифрової трансформації України, розповів, що Україна вже робить у сфері регулювання штучного інтелекту та як відреагує на Artificial Intelligence Act. Воєнний час породив нові виклики, тож йшлося і про них.
Даніель Лойфер, головний радник з політик у AccessNow, озвучив позицію Access Now щодо Artificial Intelligence Act і звернув увагу на прогалини, які ще не усунуто (у сфері прав людини та етики). Надалі дискусія йшла про схему пісочниці: чи буде вона працювати.
Ліліан Едвардс, професор права, інновацій та суспільства університету Ньюкасл розповіла, чи відображені у законопроекті ЄС чат-боти та системи автоматизованого ухвалення рішень. Йшлося і про те, чи потрібно переробляти акти ще раз, з огляду на останні події.
Віталій Гончарук, інвестор в A1V Lab, розповів, чого чекати індустрії від прийняття нових нормативних актів і чи є серед них принципи, які розробники вважають недоцільними.
У другій сесії учасники напрацьовували конкретні рекомендації для держави щодо розвитку регулювання ШІ, зокрема в контексті воєнного та надзвичайного стану, моделі розширення регулювання за межі ЄС – а також способи уникнути прогалин при його втіленні.
У другій дискусійній панелі йшлося про штучний інтелект і дезінформацію. Тут експерти обговорили нормативні акти, які регулюють розвиток штучного інтелекту. А оскільки російська пропаганда використовує діпфейки, то йшлося і про те, як запобігти їхньому поширенню. Модератором став Максим Дворовий, керівник напрямку цифрових прав Лабораторії цифрової безпеки.
Тетяна Авдєєва розповіла, як штучний інтелект регулюється в українському законодавстві та які перспективи відкриває Artificial Intelligence Act. Вона звернула увагу на потребу діалогу між зацікавленими сторонами, адже неправильно буде просто заборонити штучно створені зображення та відео. Їх використовує кіноіндустрія та багато інших доброчесних компаній.
Деніз Вагнер, радниця офісу представника ОБСЄ з питань свободи медіа, говорила про використання штучного інтелекту для зловмисних дій. Вона пояснила, що панацеї проти цього не існує. Багато країн впроваджують антидезінформаційні закони, однак вони можуть стати інструментом цензури для медіа. Значно краще, коли дезінформації протидіють самі користувачі, а не лише регулятор.
Ігор Соловей, керівник Центру стратегічних комунікацій та інформаційної безпеки, повернувся до українських реалій. Він навів приклади, як штучний інтелект може поширювати проросійські наративи. Тому Україна має поглиюблювати стосунки з бігтек-компаніями, аби протидіяти дезінформації. Важливим викликом стане боротьба з неправдивим контентом, згенерованим штучно.
Альона Романюк, засновниця “НотаЄнота”, фактчекерка, розовіла, чого Україні бракує для боротьби з дезінформацією від ШІ. За її словами, потрібен інструмент, який розрізняв би якісні діпфейки, відео та фото, згенеровані штучним інтелектом. Втім, штучний інтелект вміє і виявляти фейки та кампанії з просування наративів у соцмережах, що допомагає з ними боротися.
Третя сесія, “Між приватним і публічним”, стосувалася захисту прав людини. Вона була присвячена регулюванню конфіденційності під час війни. Адже системи ШІ збирають та аналізують чимало персональних даних, зокрема коли йдеться про розпізнавання облич. Ще одним завданням було окреслити потенційну правову базу для таких ситуацій. Модераторкою була Тетяна Авдєєва.
Віта Володовська розповіла про міжнародні стандарти щодо захисту конфіденційності під час війни. За її словами, загалом стандарти все ще формуються. Ситуацію може змінити вже згаданий законопроєкт ЄС. В Україні ж наразі можна відзначити лише Закон “Про захист персональних даних”, однак він більше про приватність, ніж регулювання ШІ. Тим часом, у Франції та Італії вже є прецеденти заборон збирати дані громадян.
Володимир Бегей, головний спеціаліст експертний комітет з питань розвитку сфери штучного інтелекту Міністерства Цифрової трансформації України, розповів про роботу свого комітету у воєнний час. Йшлося також про нові технології та їхні перспективи. Серед них говорили про використання Clearview AI, яка може розпізнавати людей за зображеннями. Ця система зазнає чимало критики, тож йшлося про запобіжні заходи та гарантії при її використанні.
Віталій Міняйло, CEO IT-компанії Neurotrack.tech та лабораторії прикладного машинного навчання EON+, поділився різними аспектами впливу технологій штучного інтелекту на конфіденційність. Зокрема, ризиками через хакерство чи витік даних. Однак є і позитивні сторони технологій, керованих штучним інтелектом. Серед них автоматизація процесів. Популярне нині машинне навчання ШІ також можливе без порушення конфіденційності.
Максим Щербатюк, програмний директор Української Гельсінської спілки з прав людини наголосив, що на сьогодні використання ШІ не не гарантує захисту прав людини. Тут використовуються вразливі дані на зразок медичних (злив яких може нашкодити людині) та нові технології. Тому Україні потрібне законодавство і регулятор, котрий матиме ресурси, аби виконувати свої обов’язки.
Четверта сесія стосувалася алгоритмів соціальних мереж та модерації. Адже у цій сфері компанії-власниці давно використовують штучний інтелект. ШІ стежить за дотриманням стандартів спільнот, але може спичинити “охолоджуючий ефект” для користувачів. Адже його “слабкою стороною” є модерування коненту, пов’язаного з війною або ж сатиричних дописів. Аби відчути грань між образою та інформацією про бойові дії чи гумором, потрібно розуміти контекст, що алгоритмам не під силу. Модератором виступив Ігор Розкладай, головний медійний юрист, заступник директорки Центру демократії та верховенства права.
Юлія Хаас, помічниця керівника проєкту Офісу представника ОБСЄ з питань свободи медіа, коротко розповіла про те, як вони реагують на сучасні виклики свободі слова в соціальних мережах та можливий негативний вплив на неї.
Катерина Крук, керівниця з публічної політики, Центральна та Східна Європа Meta, також перелічила заходи, до яких компанія вдалася у відповідь на війну та розповіла про перспективи покращеного ШІ, який би правильніше модерував контент.
Максим Дворовий, керівник напрямку цифрових прав Лабораторії цифрової безпеки приділив увагу українському контексту – наші реалії стають викликом для соцмереж, які не готувалися модерувати контент, присвячений повномасштабній війні. Експерт розповів, як штучний інтелект проводить модерацію та вказав на недоліки практичного застосування алгоритмів
Шанталь Жоріс, юристка ARTICLE 19, відповідала на питання, чи настав час тотального перегляду міжнародного гуманітарного права в контексті соцмереж та інтернету. Адже багато міжнародно-правових актів з’явилися ще у доцифрову епоху.
Тарас Шевченко, заступник Міністра культури та інформаційної політики України з питань європейської інтеграції, наголосив, що зараз відбувається своєрідна “гонка озброєнь”: компанії та платформи використовують штучний інтелект, аби розпізнавати фейки. Водночас, ті ж підробні фото і відео стають досконалішими – теж завдяки ШІ. Але рано чи пізно у відповідь на фейки зростатиме і критичне мислення аудиторії.
У другій частині дискусії учасники давали конкретні рекомендації щодо того, як реагувати на виклики війни у онлайн-середовищі. Йшлося також про стандарти, які слід розробити та застосувати, аби захистити і соціальні платформи і свободу слова в Інтернеті.
Про другий день форуму читайте за посиланням.
Цей Форум став можливим завдяки фінансовій підтримці Швеції