100+ учасників онлайн і офлайн, чотири тематичні блоки, присвячені штучному інтелекту: від загального впливу до його застосування у судових справах. Таким був форум “Штучний інтелект: права і свободи цифрової реальності”, який Центр демократії та верховенства права провів 21 липня.
Цим заходом ЦЕДЕМ започаткував дискусію, професійний діалог про штучний інтелект (ШІ) та його значення. Адже наразі такі системи працюють і в Україні. Зокрема, аналітичні системи, які розпізнають обличчя та об’єкти завдяки камерам у низці міст нашої країни.
Про старт Форуму читайте за посиланням. Також Центр демократії зібрав для вас ключові тези від експертів з теми ШІ у кожному з блоків.
Сесія I: Загальний вплив штучного інтелекту на права людини
Перша сесія Форуму, присвяченого штучному інтелекту, стала маленьким кроком для всього людства, але величезним – для українських експертів. Протягом цієї сесії учасники обговорювали, як варто ставитися до штучного інтелекту, чи є певні ризики в його розробці та які сфери слід вважати найбільш і найменш ризиковими. Модерувала дискусію Тетяна Авдєєва, медійна юристка та менеджерка проєкту зі штучного інтелекту ЦЕДЕМ.
Віталій Гончарук, засновник Augmented Pixels та голова експертного комітету зі штучного інтелекту при Міністерстві цифрової трансформації України, наголосив, що штучний інтелект не має сприйматися як “святий дух” чи щось надприродне – це звичайна технологія. Експерт зазначив, що “такі технології створюються конкретними людьми і відповідальність за них несуть конкретні люди”.
Ігор Розкладай, заступник директора та головний медійний експерт ЦЕДЕМ, наголосив на непомітному, але дуже значному впливі штучного інтелекту на кожен процес нашого життя – яскравим прикладом тут стали діпфейки та можливість зміни голосу в кіноіндустрії. Ігор підкреслив, що “технологія нейтральна, і важливо як її застосовують та хто несе за це відповідальність”. Тобто штучний інтелект є радше інструментом для вирішення певних задач.
Штучний інтелект може мати значний вплив, незважаючи на складність чи простоту алгоритмів. Євгеній Айзенберг, керівник проекту з проектування прав людини в галузі штучного інтелекту в Делфтському технічному університеті, підкреслив, що штучний інтелект часто може заміщати людину, а отже – слід уважно ставитися до того, чи доцільно в кожній ситуації застосовувати технологію і чи може вона повноцінно і належно задовольнити потреби. Євгеній наголосив на важливості визначити рівень залучення людини до процесу застосування штучного інтелекту: “слід вивчати соціальний контекст перш ніж приймати певні рішення”.
Втім, не завжди можливо думати про права людини на початку розробки технологій. На цьому наголосив Віталій Мороз, керівник програми нових медіа, Інтерньюз Україна, підкресливши, що “коли хтось створює стартап, він думає не про ризики, а про те, щоб дати певну користь людям”. Тому важливо, щоб права людини не забувалися в подальшому, а також, щоб штучний інтелект ніс як можна менше прихованих впливів, про які користувачі і розробники навіть не задумуються.
Серед найбезпечніших та найперспективніших сфер спікери виокремили освіту, медицину, агросектор та антикорупційну діяльність, найбільш ризиковими ж експерти вбачають військо-промислову сферу, правосуддя та соціальні мережі. Також небезпечним вважають вплив алгоритмів на автономність людини та саморепрезентації. Наостанок, спікери запевнили, що найближчі 5-7 років навряд можна очікувати фундаментальних змін у розробці технологій штучного інтелекту.
Сесія ІІ: Необхідність регулювання: право, етика чи їх вдале поєднання
Під час другої сесії форуму учасники дискутували щодо доцільності і природи регулювання штучного інтелекту. Зокрема, йшлося про переваги і недоліки національного регулювання, міжнародних актів, а також етичних норм у цій сфері.
На думку директора Департаменту цифрової економіки Мінцифри Олександра Компанійця, штучний інтелект за своєю суттю — нейтральна технологія. Проте важливо, яким чином її будуть використовувати. Від цього залежатиме, чи ШІ буде вселенським злом, чи вселенським добром.
На думку інших експертів, коли йдеться про загрозу людству, не варто узагальнювати все до самої технології ШІ як загрози. Це залежить від конкретних сфер застосування, мов, суспільств, політик тощо. До цього аргументу пристали молодша професорка у Делфтському технічному університеті Ольга Кудіна, керівниця відділу розвитку потенціалу в Etalab Суазік Пеніко і старша керівниця програм цифрової команди у Article 19 Відуші Марда.
Щодо питання етичного регулювання штучного інтелекту, то, на думку Ольги Кудіної, європейська спільнота будує свої рекомендації на принципах поваги і дотримання прав людини. Саме тому питання штучного інтелекту пронизане етичними стандартами і правилами. Також їх встановлення важливе на корпоративному рівні і в рамках комунікації організацій із користувачами.
А юрист Лабораторії цифрової безпеки Максим Дворовий додав, що хоча сфера ШІ пронизана етичними питаннями, без внутрішнього регулювання і обов’язкових правил ця галузь не може обійтися.
Головна юридична радниця ECNL Франческа Фануччі також виступила за регулювання штучного інтелекту: “Потрібно відмовитися від міфу, що регулювання заважає інноваціям. Не треба ділити на чорне і біле. Регулювання потрібне, якщо воно робить штучний інтелект безпечним, надійним і таким, що не порушує права людини”. На рівні Ради Європи можна скласти проєкти регуляторних баз, як обов’язкових, так і добровільних.
Далі експерти говорили про особливості міжнародного і національного регулювання штучного інтелекту.
На думку Суазік Пеніко, попри те, що різні країни мають різні темпи і рівні розвитку ШІ, міжнародне регулювання цієї галузі потрібне. Адже без регулювання ті країни, які досягли більших успіхів, зможуть безапеляційно насаджувати свої стандарти. Для збереження рівності й потрібні міжнародні стандарти.
Олександр Компанієць, своєю чергою, запевнив, що Україна активно бере участь у світовій дискусії щодо розвитку штучного інтелекту. Зокрема, концепцію щодо його розвитку, яку запропонувала Україна, прийняли до уваги міжнародні організації, її почали вивчати і в Раді Європи, і в ЮНЕСКО.
“Що стосується законодавства. Чи потрібно нам розробляти окремий закон щодо штучного інтелекту… Тут є дискусія, і точиться вона не тільки всередині країни, а й на міжнародних майданчиках… Я поділюся трошки інсайдерською інформацією: до блоку країн, які вважають недоцільним, принаймні на цьому етапі, жорстке регулювання технології ШІ, входять такі провідні країни в цій галузі як Японія, США, Канада, Ізраїль…”, — додав Компанієць.
Максим Дворовий характеризує здорове регулювання сфери штучного інтелекту словом “мультистейкхолдеризм”. Тобто воно повинно відбуватися як з боку уряду, так і з боку бізнесу. Також необхідно проводити діалог із громадськими організаціями.
Якщо ж говорити про перевагу національного чи міжнародного права у сфері ШІ, то найкращим варіантом могло б бути поєднання. Про це сказала Суазік Пеніко. Вона ж додала, що це й питання для дискусії. “Штучний інтелект є більше міжнародним питанням, а не національним. Тому що Інтернет, наприклад, не обмежується певною територією. Тож питання: як поєднати ці речі? Варто розглядати цю проблему на різних рівнях”.
Сесія IІІ: Системи розпізнавання облич і нагляду та права людини
Третя сесія Форуму стосувалася систем розпізнавання облич та нагляду. Протягом цієї сесії експерти намагалися з’ясувати, наскільки ризиковою є можливість встановлення камер з функцією розпізнавання облич повсюдно, чи може ця технологія взагалі використовуватися і за яких умов. Модерував дискусію Ігор Розкладай, заступник директора та головний медійний експерт ЦЕДЕМ.
Марлена Вісняк, головна юридична консультантка ECNL, зазначила, що її організація разом з численними іншими представниками громадянського суспільства виступає за цілковиту заборону камер з функцією розпізнавання облич. Вона наголосила, що “люди не мають боятися ходити на протести чи ховатися у просторах, де їх не побачать” – це охолоджуючий ефект для прав і свобод. Пом’якшити таку шкоду нереально, а тому не слід створювати прецедентів та простору для порушення прав людини. Звісно, експертка вважає, що це правило стосується лише камер з функцією розпізнавання облич, водночас в інших сферах потенціал використання таких систем все ж має право на існування.
Владислав Власюк, керуючий партнер EPravo, назвав камери “неминучим злом”, з присутністю якого в нашому житті доведеться змиритися, адже крім очевидних ризиків слід пам’ятати й про їхні переваги – “камери завжди будуть, багатьом вони не будуть подобатися, але завжди будуть аргументи безпеки, спокою, можливості розслідувати”. На думку Владислава, алгоритм розпізнавання облич не є добрим чи поганим, не можна заборонити сам алгоритм. Тому питання полягає у тому, хто і як використовує такі системи, а не в тому, чи принципово варто їх заборонити.
Однозначної відповіді не існує, усе завжди залежить від обставин, за яких камери використовуються, переконана Тетяна Авдєєва, медійна юристка та менеджерка проєкту зі штучного інтелекту ЦЕДЕМ. Звичайні камери можуть бути легальними, втім “системи розпізнавання облич підіймають питання не лише нагляду самого по собі, а зберігання та обробки персональних даних, дискримінації тощо” і це, на думку експертки, робить їх системами із підвищеним ризиком. Водночас, це не значить, що системи розпізнавання облич мають бути заборонені всюди – вони можуть використовуватися у соціальних мережах чи для розблокування телефону.
Джейсон Хсу, Головний ініціативний директор у Taiwan AI Labs, поділився досвідом роботи у тайванському парламенті та розробці політик із захисту персональних даних. Він наголосив, що розвиток штучного інтелекту має бути врегульованим у питаннях оперування персональними даними, адже ризики є значними. Держава може зловживати своїми можливостями – у Китаї “вулиці, де відбуваються протести, по вінця заповнені камерами”, що неправильно. Технологія не має бути неконтрольованою. Слід встановлювати принципові правила гри.
Як висновок, експерти зійшлися на думці, що за неможливості повної і всеосяжної заборони камер з системою розпізнавання облич, варто жорстко врегулювати такі технології. Це допоможе знизити ризики для прав людини та убезпечити громадян від зловживань з боку держав.
Сесія IV: Правосуддя та штучний інтелект
Протягом четвертої сесії експерти обговорювали, чи можна застосовувати технології штучного інтелекту у правосудді, ризики їх використання, а також державну політику у цій сфері. Модерував дискусію Василь Бабич, керівник багатогалузевої групи з питань державної політики в Центрі економічного відновлення.
Сергій Чорнуцький, заступник голови Державної судової адміністрації, зазначив, що “штучний інтелект можна використовувати в системі правосуддя, але не прямо, здійснюючи правосуддя, а як допоміжний інструмент для допомоги суддям”. Тобто штучний інтелект не замінює суддів, а лише спрощує судовий процес і допомагає суддям при прийнятті рішень, особливо коли є усталена судова практика.
На думку Івана П’ятака, юридичного радника кампанії “Чесно Фільтруй Суд” ЦЕДЕМ, найбільший виклик штучного інтелекту у сфері правосуддя – винести неупереджене безстороннє рішення. “Штучний інтелект створюють люди зі своїми упередженнями, і саме це є причиною винесення неправосудних рішень. Такі випадки є у США, критикують системи, які аналізують питання вчинення особою, яка вчинила злочин, повторного злочину. Також є питання расової упередженості або упередженості до людини на підставі її майнового стану“.
Більше підводних каменів описано в Етичній хартії по використанню штучного інтелекту у судовій системі та її середовищі. Зважаючи на ризики, штучний інтелект наразі використовується лише для прогнозування рішень на основі наявної практики, а ухвалення рішень залишається за суддями.
Щодо державної політики у цій сфері, то ініціатива йде від приватного сектору. Роман Куйбіда, заступник голови правління Центру політико-правових реформ, звернув увагу, що саме приватні компанії як-от ЛІГА:ЗАКОН та Суд на долоні пропонують свої системи прогнозування судових рішень. “Все це дуже корисні речі, які можуть дати потенційним позивачам інформацію: на що вони можуть розраховувати, зважаючи на практику. Так само і суддям це може спростити процес”, – наголосив Роман.
Сергій Сученко, юридичний радник USAID New Justice Program, погодився, що держава не буде відігравати провідну роль у розвитку штучного інтелекту в сфері правосуддя, потрібна співпраця держави та бізнесу. “Для того, щоб системи, пов’язані з алгоритмізованою обробкою даних працювали, потрібно аби ці дані були в наявності, і були належної якості, – зазначив Сергій. – Потрібна синергія між бізнесом та державою, коли з одного боку, держава надає інформацію в тому вигляді, у якому це потрібно та зручно, а з іншого боку, бізнес надаватиме можливість користуватися своїми рішеннями, можливо, на пільгових умовах”.
Наостанок, експерти зазначили, що впровадження штучного інтелекту в українських судах можливе лише після діджиталізації (впровадження електронного суду замість паперового судочинства) і лише за належного організаційного забезпечення суду.