17 березня 2021 року Комітет Міністрів Ради Європи прийняв Декларацію Decl(17/03/2021)2 щодо ризиків комп’ютеризованого чи заснованого на використанні штучного інтелекту процесу прийняття рішень у галузі соціальної безпеки. Основна увага у документі приділена соціальним та економічним правам, які є підгрунтям для реалізації громадянських і політичних свобод.
Комітет Міністрів наголошує, що системи прийняття рішень у органах влади, які передбачають застосування штучного інтелекту та машинного навчання, суттєво впливають на реалізацію соціальних прав. У Декларації виділяють основні переваги та недоліки використання таких технологій:
- З одного боку, вони покращують і пришвидшують надання послуг, знижують адміністративні витрати, підвищують прозорість та допомагають виявляти шахрайство і корупційні ризики.
- З іншого боку, серед проблем Комітет Міністрів окреслює ризик: через прогалини у алгоритмах можливі помилкові скорочення чи відмови у забезпеченні прав та пільг громадян.
Крім того, розробка та використання штучного інтелекту та машинного навчання без належного регулювання, а також без дотримання принципу прозорості загрожує соціальним правам. Зокрема, вона може призвести до дискримінаційних практик щодо жінок, осіб з низькокваліфікованими та погано оплачуваними роботами. На додачу, надміру швидка імплементація рішень без уваги до наслідків може завдати суттєвої шкоди, навіть якщо помилка негайно виправлена.
Враховуючи усі виклики, породжені застосуванням таких технологій, Комітет Міністрів порадив державам:
- Оцінити ризики, що виникають через застосування штучного інтелекту та машинного навчання без належного нагляду у питаннях управління, надання або скасування прав, допомоги та супутніх виплат;
- Пересвідчитися, що розробка таких технологій відповідає принципам правової визначеності, законності, якості даних, недискримінації і прозорості;
- Звернути увагу на необхідність людського нагляду, покликаного зменшувати масштаб або уникати помилок;
- Врахувати необхідність ефективних заходів захисту вразливих осіб від шкоди (включаючи злидні, крайню бідність або бездомність), завданої застосуванням штучного інтелекту та машинного навчання;
- Необхідність розробки моделі відповідальності за такі технології на стадіях їх проєктування, розробка, розгортання або оцінки;
- Дотримуватися проактивного підходу щодо доцільності застосування штучного інтелекту та машинного навчання залежно від контексту, а також проводити освітні кампанії з теми таких технологій.
Тому, найближчим часом варто очікувати на появу національних регулівних документів у сфері використання штучного інтелекту та машинного навчання.