17 серпня Комітет Асоціації адвокатів України з медіа права та захисту честі, гідності та ділової репутації провів онлайн-вебінар “Як штучний інтелект змінює ринок медіа і чого чекати юристам”. Серед спікерів вебінару були й представники ЦЕДЕМ: Ігор Розкладай, заступник директора, головний експерт з медійного права, та Ольга Петрів, юристка напряму “Незалежні медіа”.
Зокрема, Ольга Петрів розповіла про Artificial Intelligence Act. Це закон, котрий покликаний регулювати штучний інтелект на території Європейського Союзу. Втім, він матиме екстериторіальну дію, тобто поширюватиметься на всі системи, котрі стосуються громадян ЄС. Artificial Intelligence Act побудований за ризик-орієнтованим підходом, і ділить системи штучного інтелекту на різні категорії.
- Системами з мінімальним ризиком вважаються персональні помічники чи системи рекомендацій, у котрих лише розважальна функція;
- Системи з обмеженим ризиком – це, до прикладу, алгоритми медійних платформ чи соціальних мереж, де користувачі обмінюються даними і контентом;
- До систем з високим ризиком належать ті, які прямо впливають на права користувачів, їхнє здоров’я чи безпеку. Наприклад, застосування штучного інтелекту в поліграфах чи подібних інструментах, аби виявити емоційний стан людини, перевірки автентичності проїзних документів
- Окрема категорія – заборонені системи, які можуть загрожувати безпеці чи правам людей. Наприклад, система “соціальної оцінки” на зразок китайської, що збирає дані про громадян та оцінює їх. Чи іграшка з голосовою підтримкою, яка заохочує користувачів зробити щось небезпечне.
Вона також розповіла про інші особливост Artificial Intelligence Act, зокрема роботу спеціальної комісії, котра вивчатиме найкращий досвід країн-членів.
Далі Ольга Петрів вказала, що є 4 підходи як можна створити законодавчу базу стосовно штучного інтелекту.
- Перший – імплементувати цей акт, аби всі його вимоги були втілені в життя в Україні. Проте поки немає впевненості, як він спрацює в самому ЄС. Створення регулятора – ще одна проблема в українських реаліях.
- Другий варіант – розробити й ухвалити власний закон, легший і з меншими вимогами для розробників. Але є важливий нюанс: якщо такі компанії потім вийдуть на ринок ЄС, де вимоги вищі, у них будуть значні проблеми.
- Третій підхід – так звана “британська модель”: не ухвалювати окремий закон, а регулювати сферу за допомогою чинного законодавства. Цей варіант розглядали і в Україні під час дискусій у експертному комітеті Мінцифри, але зрештою відмовилися від нього.
Тому наша держава зосередиться на четвертому варіанті, за яким ми розділимо створення законодавчої бази на два кроки. Перший складатиметься з позазаконодавчих механізмів, а другий – вже згодом – імплементація Artificial Intelligence Act.
До таких позазаконодавчих механізмів можна віднести, наприклад, “регуляторну пісочницю” чи ретроспективний аналіз програм штучного інтелекту, аби простежити ризики певних технологій. Інший варіант – створення “білої книги” з описом, чого слід очікувати бізнесу та суспільству.
Далі Ігор Розкладай наголосив: те, що ми називаємо “штучним інтелектом”, насправді є системами, здатними до самонавчання – але це не інтелект у прямому сенсі (який міг би самостійно мислити).
Аби відповідати на наші питання, штучний інтелект використовує будь-який масив інформації з інтернету, не верифікуючи і не перевіряючи її. А тому тексти можуть бути неправдиві.
Експерт навів іншу класифікацію штучного інтелекту. Технології можуть бути негативними, нейтральними – наприклад, робот, який спілкується з нами, коли ми телефонуємо до банку – або позитивними. Останні допомагають оптимізувати процеси чи розв’язати складні ситуації. Наприклад, у освітній чи музейній сфері, аби робити її інтерактивнішою та зацікавлювати людей.
До слова, штучний інтелект з’являється не лише у медійній сфері. У майбутньому реальністю стануть безпілотні автомобілі, і це буде новим викликом для юристів, котрим доведеться з’ясовувати: наприклад, хто відповідатиме за ДТП.
Однак поки відчутні і негативні наслідки штучного інтелекту, про які Ігор Розкладай також розповів. Зокрема:
- Системи вуличного спостереження, за умови, що камери мають функцію розпізнавання облич (для неї також застосовують штучний інтелект). Вони можуть ідентифікувати людей, а централізований збір інформації про громадян становить ризики для свободи зібрань та права на приватність.
- Іншою проблемою є діпфейки. Експерт навів приклад відео з 44-м президентом США Бараком Обамою, де система штучного інтелекту аналізує рухи губ. Далі актор може начитати текст, який “перенесеться” на об’єкт, і так буде згенерований фейковий виступ. Існують також шелловейки: наприклад, модифікація швидкості звуку, аби скласти враження, що людина п’яна. Усе це небезпечне, бо технології розвиваються дуже швидко, і відео, згенеровані у 2023 році, значно якісніші, ніж такі ж, але з 2017-го.
Окремо експерт зупинився на темі соціальних мереж. Вони використовують штучний інтелект, аби зібрати найбільше даних про користувачів і таргетувати на них рекламу товарів і послуг. Звідси виникає ефект, коли після пошуку якогось товару ви одразу отримуєте його рекламу.
Ігор Розкладай відзначив і проблему соціальних мереж з модерацією. Алгоритми можуть неправильно оцінювати контент і через це видаляти пости. Щоб не отримати покарання, медіа змушені займатися самоцензурою, тож це створює “охолоджувальний ефект” для свободи слова.
Найгіршою ж ситуацією є шахрайство, коли через рекламу у соцмережах поширюють дезінформацію. Однак тут є і позитивні новини: алгоритми нарешті навчилися і більшість такої реклами видаляють.